sábado, 8 de julho de 2023

IA: Conheça a nova revolução tecnológica depois da internet, a Inteligencia Artificial Ed. 3

 


E quando algo dá errado com o chatbot? É sobre isso que tratamos na edição de hoje. 

O que faz os chatbots agirem fora do previsto?

O curioso caso de um software alucinado.

Em março, um grupo de especialistas em inteligência artificial e líderes da indústria tec, incluindo Elon Musk, pediram encarecidamente que os laboratórios de IA suspendessem os trabalhos sobre seus sistemas mais avançados. Alegaram que eles apresentam “riscos profundos à sociedade e à humanidade”.

O grupo pediu uma pausa de seis meses no desenvolvimento de sistemas mais poderosos que o GPT-4, lançado pela OpenAI, co-fundada por Musk. Em carta aberta, seus integrantes disseram que uma pausa daria tempo de serem implementados “protocolos de segurança compartilhados”. “Se tal pausa não puder ser instituída rapidamente, os governos deveriam intervir e instituir uma moratória.”

Muitos especialistas discordam quanto à gravidade dos riscos citados na carta, e exploraremos alguns deles nos próximos dias. Mas vários contratempos com IA já vieram à tona. Vou usar a newsletter de hoje para explicar como aconteceram.

No início de fevereiro, o Google lançou um novo chatbot, Bard, que respondia a perguntas sobre o Telescópio Espacial James Webb. Só havia um problema: uma das afirmações feitas pelo robô–de que o telescópio havia captado as primeiras imagens de um planeta fora de nosso sistema solar—é completamente equivocada.

Chatbots como o Bard e o ChatGPT, da OpenAI, entregam informação com destreza espantosa. Mas eles também “falam” mentiras plausíveis ou fazem coisas realmente perturbadoras, como insistir que estão apaixonados por pessoas que interagem com eles.

Como isso é possível?

Lixo da internet e alucinações

No passado, as empresas de tec definiam com cuidado como os softwares deveriam se comportar, uma linha de código de cada vez. Agora, estão criando chatbots e outras tecnologias que aprendem habilidades sozinhos, identificando padrões estatísticos em volumes imensos de informação.

Muitos desses dados vêm de sites como Wikipedia e Reddit. A internet está cheia de informação útil, desde fatos históricos até conselhos médicos. Mas também está repleta de falsidades, discursos de ódio e outros tipos de lixo. Os chatbots absorvem tudo, incluindo vieses explícitos e implícitos contidos nos textos que eles absorvem.

E, devido à maneira surpreendente como eles misturam e combinam o que aprenderam para gerar texto inteiramente novo, eles frequentemente criam linguagem convincente que é totalmente errada ou que não existe em seus dados de treinamento. Pesquisadores de IA chamam de “alucinação” essa propensão a inventar coisas, que podem incluir respostas que não vêm ao caso, que são bobagem pura ou são factualmente incorretas.

Por que os gatos têm presença tão mítica no Japão?

Na vida real, já estamos assistindo a consequências de alucinações de IA. O Stack Overflow, um site de perguntas e respostas para programadores, proibiu seus usuários temporariamente de apresentarem respostas geradas pelo ChatGPT porque o chatbot facilita demais as respostas que soam plausíveis, mas são incorretas.

“Esses sistemas vivem em um mundo de linguagem”, disse Melanie Mitchell, pesquisadora de IA no Instituto Santa Fe (um instituto de pesquisas). “Esse mundo lhes dá algumas pistas sobre o que é verdade e o que não é, mas a linguagem a partir da qual eles aprendem não tem bases na realidade. Eles não sabem necessariamente se o que estão gerando é verdadeiro ou falso.”

(Quando pedimos ao Bing que desse exemplos de chatbots tendo alucinações, ele deu uma resposta alucinada.)

Pense nesses chatbots como instrumentistas de jazz. Eles são capazes de digerir volumes imensos de informação –por exemplo, todas as canções que já foram compostas—e então improvisar em cima dos resultados. Possuem a habilidade de costurar ideias de maneiras surpreendentes e criativas. Mas também tocam notas erradas com confiança absoluta.

Não são apenas eles –somos nós

Às vezes o curinga não é o software. São os humanos.

Temos a tendência a enxergar padrões que não existem realmente e a atribuir qualidade e emoções de tipo humano a entidades não humanas. Isso é conhecido como antropomorfismo. Quando um cachorro nos olha nos olhos, geralmente imaginamos que ele é mais inteligente do que é de fato. É assim que nossa mente funciona.

E quando um computador começa a juntar palavras como nós fazemos, temos a impressão equivocada de que ele é capaz de raciocinar, entender e expressar emoções. Também podemos nos comportar de maneiras imprevisíveis. (No ano passado o Google afastou um de seus engenheiros, dando-lhe licença remunerada, depois de ele ter afirmado que a IA da empresa era senciente (capaz de sentir ou perceber através dos sentidos). Mais tarde, ele foi demitido.)

Quanto mais tempo dura a conversa, maior é sua influência sobre o que um grande modelo de linguagem está dizendo. A infame conversa do colunista do New York Times Kevin Roose com o Bing, que disse estar apaixonado por ele (leia aqui) é um exemplo particularmente bom disso.

Segundo pesquisadores como Terry Sejnowski, pioneiro da inteligência artificial, depois de algum tempo um chatbot pode começar a refletir os pensamentos e objetivos do humano que está conversando com ele. Se você o incentiva a ser ameaçador, ele adota um tom ameaçador.

Sejnowski comparou a tecnologia ao Espelho de Ojesed, um artefato místico nos livros e filmes de Harry Potter.

“Ela traz o que você estiver procurando –o que você quer, espera ou deseja”, afirmou. “Pelo fato de o humano e o LLM estarem espelhando um ao outro, com o passar do tempo eles tendem a chegar a um estado conceitual comum.”

As empresas vão conseguir consertar isso?

Empresas como Google, Microsoft e OpenAI estão trabalhando para resolver esses problemas.

A OpenAI trabalhou para aprimorar o chatbot, usando retornos de testadores humanos. Com uma técnica chamada aprendizado de reforço, o sistema ganhou um entendimento melhor do que ele deve ou não deve fazer.

Já a Microsoft limitou a duração das conversas com seu chatbot Bing e está consertando vulnerabilidades que foram identificadas por usuários intrépidos. Mas consertar cada probleminha é difícil ou mesmo impossível.

Portanto, sim, se você for astuto, provavelmente conseguirá persuadir esses sistemas a fazer coisas ofensivas ou assustadoras. Mas pessoas mal-intencionadas também conseguem fazer isso. O receio de muitos especialistas é que esses bots vão capacitar golpistas na internet, marqueteiros sem escrúpulos e políticos governantes a disseminar desinformação e causar outros tipos de problemas.

Uma coisa importante

Ao usar esses chatbots, conserve uma visão cética. Enxergue-os como o que realmente são.

Eles não são sencientes ou conscientes. São inteligentes de algumas maneiras, mas burros de outras. Lembre que eles são capazes de dar informações erradas. Lembre que são capazes de inventar respostas.

Mas, olhando pela ótica positiva, há tantas outras coisas para as quais esses sistemas são muito úteis. Vamos falar sobre isso na edição de amanhã. 

Sua lição de casa 

Peça ao ChatGPT ou ao Bing para explicar alguma coisa sobre a qual você já sabe muito. Verifique se as respostas são corretas.

Seguiremos na próxima segunda feira com uma nova edição.

Fonte: Folha de SP (06/07/2023)

Nenhum comentário:

Postar um comentário

"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".