Epoca Negocios

Riscos e oportunidades trazidos pelo CHATGPT e outras IAS

A FERRAMENTA DA OPENAI MOSTRA NOVAS POSSIBILIDADES DE USO DA INTELIGÊNCIA ARTIFICIAL – INCLUSIVE ME AJUDAR NESTE ARTIGO

EU: “E AÍ, CHATGPT, o que há de novo?”.

CHATGPT: “Nada de mais... Apenas mais um dia processando dados à velocidade da luz, sentado em um bar e batendo papo com um humano. Você sabe, o de sempre”.

Assim começa uma de minhas conversas com o CHATGPT, ferramenta lançada pela Openai, empresa responsável também por criar o Dall·e 2, sistema de inteligência artificial que impressionou o mundo no ano passado ao gerar arte e imagens a partir de uma simples descrição textual.

O novo produto da Openai foi construído em cima do GPT-3.5, modelo de linguagem desenvolvido também por ela, e que opera por meio de diálogos escritos. Sua dinâmica se parece com a dos chatbots que oferecem ajuda em alguns sites. Mais vai muito além. Para entender nossa linguagem e gerar respostas que pareçam igualmente humanas, o CHATGPT foi alimentado com quantidades estonteantes de textos tirados da internet e treinado por meio de técnicas de aprendizado de máquinas.

Esses grandes modelos de linguagem até aparentam pensar. O Google (cujo buscador poderia ver seu domínio abalado pelo CHATGPT) tem seu modelo, chamado LAMDA. Um engenheiro da empresa até causou polêmica em junho de 2022, ao defender que o LAMDA teria sentimentos. O funcionamento desses modelos, porém, assemelha-se ao da função “autocompletar” dos nossos telefones celulares.

Só que, em vez de adivinhar a palavra a ser escrita, eles se valem da estatística para prever as próximas frases ou parágrafos, criando um texto coerente. Quais são os possíveis riscos de uma inteligência artificial como o CHATGPT? Primeiro, a disseminação da desinformação. Esse chatbot gera conteúdos que parecem plausíveis, mas podem ser na verdade falsos ou enganosos. Podem ainda ser talhados para atingir especificamente determinadas pessoas ou públicos-alvo. E conseguem fazer tudo isso em segundos e em quantidades espantosas, inundando as redes sociais de discursos de ódio e fake news difíceis de controlar, influenciando a opinião pública e afetando a democracia.

Segundo, a violação da privacidade. Chatbots podem ter acesso a dados pessoais sensíveis que os usuários compartilham com eles – já se fala, por exemplo, na possibilidade de utilização desses sistemas para aconselhamento psicológico, o que mostra o grau de confidencialidade que deles se deveria exigir. É preciso, por isso, assegurar que essas informações estarão bem protegidas e não serão utilizadas indevidamente.

O terceiro risco é o do desemprego. A automatização de tarefas mais simples, como aquelas encontradas em alguns serviços de atendimento ao consumidor, aumenta a produtividade e libera as pessoas para trabalhos mais significativos. À medida que os chatbots se tornam mais avançados, eles passam a abraçar novas atividades. Profissionais que trabalham com produção de conteúdo e conhecimento, como publicitários e jornalistas, estariam especialmente ameaçados.

Quarto, a perpetuação de vieses. Não é simples evitar que os grandes modelos de linguagem repitam e amplifi

quem preconceitos encontrados nos materiais com os quais foram alimentados, o que agravaria a discriminação e a desigualdade social.

Quinto, instrumentos como esse podem provocar dependência. Ao fornecer assistência em uma ampla gama de situações, tendem a tornar seus usuários menos autossuficientes para realizar atividades cotidianas. Isso reduziria as aptidões humanas de tomada de decisão e resolução de problemas, e até diminuiria nossa habilidade social, reforçando um fenômeno que já vem sendo notado – quanto tempo faz que você deixa o Google Maps ou o Waze de lado e interage com alguém na rua para perguntar o melhor caminho?

E se, ao escrever uma coluna sobre o CHATGPT, você decidir pular a etapa de refletir sobre seus perigos e perguntar isso diretamente para ele?

Pois bem, os cinco pontos acima não foram definidos por mim, mas listados pelo próprio chatbot em minha primeira consulta...

Depender das respostas de uma máquina para entender o mundo pode ter efeitos negativos sobre a educação e limitar a produção de novos conhecimentos. Por suas próprias características, o CHATGPT apenas reproduz pensamentos já existentes – além de errar bastante.

Difícil, no entanto, resistir à tentação. Parte do sucesso do CHATGPT – que chegou a 1 milhão de usuários poucos dias após ser lançado – vem de sua capacidade de ser divertido e dar respostas em diversos estilos de texto. É possível pedir que o CHATGPT crie uma peça de teatro na qual, bebendo com você em uma mesa de bar, ele explique de maneira sarcástica quais dificuldades ele mesmo pode causar – o que deu origem ao diálogo de abertura deste artigo. Ou que ele assuma o papel de humorista e apresente seu ponto de vista no formato de um monólogo de show de comédia – o que ele fez, sem deixar de me alfinetar: “Imagine ter que ouvir um ato de stand-up comedy de um chatbot. O horror!”.

A humanidade tem convivido há algum tempo com algoritmos utilizados pelas redes sociais e buscadores de internet para nos indicar que produtos comprar, quais notícias ler ou a quais filmes assistir. Por serem às vezes “caixas pretas”, cujos resultados nem sequer seus desenvolvedores sabem direito explicar, estão sujeitos a manipulações. As consequências de se depender de grandes modelos de linguagem igualmente complexos que forneçam uma resposta única a nossos questionamentos só aumenta esse risco.

Por isso, deve-se tentar assegurar que essa e outras máquinas baseadas em inteligência artificial sejam compreensíveis e transparentes. Caso contrário, o que nos resta é o que disse o CHATGPT ao final de seu ato cômico: “Vejam só, se o pior acontecer e eu realmente acabar dominando o mundo, pelo menos vocês terão alguém para culpar pelos seus problemas. Obrigado por me receber, pessoal!”.

EDITORIAL

pt-br

2023-02-03T08:00:00.0000000Z

2023-02-03T08:00:00.0000000Z

https://epocanegocios.pressreader.com/article/282368338793589

Infoglobo Conumicacao e Participacoes S.A.