O ChatGPT é um chatbot que usa inteligência artificial (IA) para conversar com os seus utilizadores. Este sistema foi desenvolvido pela startup OpenAI, empresa fundada em 2015, nos EUA.

Cinco dias após o seu lançamento, o ChatGPT chegou a mais de um milhão de utilizadores – que, ironicamente, têm de ser humanos porque ao fazer log in no chat com uma conta, o utilizador precisa de provar que não é robô.

O sistema foi programado para criar o texto no formato de uma conversa, com capacidade para responder a perguntas e continuar diálogos de forma natural e com um discurso muito humano.

Apesar de ter sido apontado como uma possível ameaça à hegemonia da Google, enquanto fornecedor de informações na Internet, o sistema ChatGPT ainda comete erros ao dar as informações pedidas.

ChatGPT um robo que faz (quase) tudo por nos_3
O ChatGPT é um chatbot que usa inteligência artificial para conversar com os seus utilizadores | © Envato

O que consegue fazer?

O ChatGPT conversa de maneira fluida e consegue dar conselhos sobre problemas pessoais. O sistema pode, por exemplo, ensinar a preparar uma receita apenas com os ingredientes que tiver em casa; dar dicas para conseguir uma vaga de emprego; escrever poesia, trabalhos académicos e até criar músicas.

Segundo os seus criadores, o objetivo do sistema [CHATGPT] é reproduzir cada vez mais os modelos de interação humana. Muitos utilizadores testaram o potencial de criação do sistema e conseguiram até mesmo criar uma peça para piano ao estilo de Mozart

O site também já conseguiu criar códigos de programação, assim como permitiu a um designer em San Francisco (EUA) criar em apenas dois dias um livro infantil com texto e ilustrações.

Benefícios vs. desafios

Apesar de erros e falhas ainda existentes, a capacidade já demonstrada pelo programa tem vindo a provocar não só admiração, mas também alguns receios.

Tem havido questões sobre a possibilidade de uma rutura em áreas como a criatividade, a educação, trabalho, segurança digital e a própria democracia, como referiu um artigo recente no jornal ‘The New York Times’.

Segundo os autores, o que antes era uma pessoa a expressar a sua opinião política agora pode ser apenas um robô que cria artificialmente um argumento.

As profissões que dependem relacionadas com a criação de texto, como por exemplo o jornalismo, poderão sofrer alterações com profundo impacto no mercado de trabalho – no limite, muitas tarefas até agora realizadas por humanos poderão ser substituídas por IA.

A capacidade do ChatGPT de criar códigos também já provoca mudanças ao nível da programação de software e plataformas digitais. Mas uma das áreas que vai ser mais afetada pela chegada das novas tecnologias – e agora do ChatGPT – é a educação.

Os estudantes vão ter a tentação de usar este sistema para encontrar respostas prontas para as suas tarefas académicas

Isto já levou a que, por exemplo, Nova Iorque tomasse a decisão de proibir o sistema nas escolas e nos dispositivos da rede pública da cidade americana.

Futuro desafiante

Será que no futuro vai ser possível produzir conteúdo que não seja baseado em IA? Um ponto pertinente é também a questão do plágio. A partir do momento em que a criação de modelos como o ChatGPT se baseia em textos disponíveis na Internet – como notícias, livros e blogues -, as respostas do sistema podem trazer ideias publicadas por pessoas sem que as mesmas recebam crédito por isso.

Este sistema também pode ser uma ameaça muito grande para aqueles que o usam sem crítica ou questionamentos morais e éticos. E isso não é apenas um risco individual, mas para toda a Humanidade.

Os modelos de linguagem avançados, como o ChatGPT, são capazes de criar conteúdos semelhantes aos desenvolvidos por um humano, o que significa que poderão ser usados para promover a desinformação e criar fake news. Isso pode ter consequências graves, como, por exemplo, a disseminação de ideias antidemocráticas ou a manipulação da opinião pública.

O uso de modelos de linguagem avançados para recolher e analisar dados pessoais pode representar um risco para a privacidade das pessoas. E também representará um desafio para a segurança, se esses dados forem usados por pessoas mal intencionadas.

ChatGPT um robo que faz (quase) tudo por nos_2
A possível disseminação de fake news é um dos problemas apontados a estas plataformas de IA | © Envato

Mais tecnologia, menos intelecto?

Algumas previsões apontam para a possível automatização de tarefas de escrita e da criação de conteúdos, o que pode resultar na perda de empregos por parte dos profissionais dessas áreas.

Já existe a preocupação de que os modelos de linguagem avançados possam ser utilizados para substituir a interação humana, o que vai promover o afastamento social, levar à redução da capacidade de comunicação e à diminuição do sentimento de humanidade.

No entanto, esses riscos podem ser amenizados através da regulamentação adequada, uso ético e transparência nos dados recolhidos e processados. Além disso, o desenvolvimento de ferramentas para detetar fraudes e ‘notícias falsas’ irá ajudar a mitigar esses problemas.

Além do ‘copiar e colar’, existe o receio de que possa haver impactos estruturais nas capacidades humanas.

Por exemplo, o exercício cognitivo de escrever um texto com início, meio e fim, relacionando as ideias de forma coesa, poderá ser afetado?

Machado Dias, neurocientista e professor na Universidade Federal de São Paulo, partilhou os seus receios quanto a este novo sistema: “Ando bastante preocupado com a algoritmização do pensamento, que é a alteração do nosso entendimento e relacionamento com o mundo em função da interação com a IA. Esta será a maior mudança da mentalidade de toda a história moderna. É de sublinhar que o cérebro humano tem vindo a reduzir de tamanho, em função do desenvolvimento tecnológico. Este processo vai começar a acelerar. Assim, iremos tornar-nos cada vez mais sofisticados do ponto de vista técnico-cultural, mas também mais limitados do ponto de vista neurocognitivo.”

Martha Gabriel, autora do livro ‘Inteligência Artificial: do Zero ao Metaverso’ e professora na Pontifícia Universidade Católica do Rio Grande do Sul, afirma que será necessário adaptarmo-nos aos novos tempos: “Quando uma tecnologia passa a fazer algo melhor do que um humano, não adianta querer concorrer com ela. A partir desse momento, as habilidades humanas que passam a ter valor são saber usar aquela tecnologia com o seu máximo potencial e fazer aquilo que a tecnologia não faz.”

E conclui: “O que faz a diferença neste contexto não são mais as respostas, mas as perguntas. Temos de começar a saber perguntar. Para saber perguntar temos de saber pensar criticamente”.

FONTE© Envato