sábado, 2 de julho de 2022

Inovação: Robôs podem ter 'alma' e consciência? Veja o que dizem especialistas



Declaração de engenheiro do Google reacende debate sobre avanço da inteligência artificial e a capacidade de as máquinas terem vida própria. 

Mas cientistas afirmam: sistemas não chegam nem perto das habilidades do ser humano

O britânico Alan Turing, precursor da inteligência artificial (IA), esnobou em seu seminal artigo “Computadores e inteligência”, de 1950: “A pergunta ‘as máquinas podem pensar?’ é tão insignificante que nem merece discussão”. Sete décadas depois, porém, é justamente isso que se discute a cada nova façanha computacional. O gatilho da vez foi a “denúncia” de um engenheiro do Google, de que um dos sistemas de IA da empresa havia adquirido “consciência” e “alma”.

Seu alerta foi veementemente rechaçado pela companhia, que o afastou, e pela comunidade científica, mas reacendeu o debate que Turing tentava esvaziar: quão perto da essência humana a IA é capaz de chegar e como lidar com os riscos e dilemas éticos que sua ascensão desperta?

O caso recente foi protagonizado pelo LaMDA, sistema que usa IA para permitir que “chatbots” conversem com seres humanos usando linguagem natural, emulando o nosso discurso. Criado no ano passado no Google, o programa processa toneladas de textos, de livros a artigos de internet, estabelecendo relações entre as palavras e atribuindo probabilidade ao emprego de cada uma delas nas sentenças que formula.

Mas sua performance espantou o engenheiro Blake Lemoine, cujo trabalho era testar o sistema para identificar eventuais discursos discriminatórios. Em seus diálogos com Lemoine, o LaMDA disse frases aparentemente subjetivas, como “quero que todos entendam que sou, de fato, uma pessoa” e “eu tenho medo de ser desligado”. Elas convenceram Lemoine de que o sistema havia se tornado senciente —capaz de ter sentimentos de forma consciente.

Lemoine reportou sua conclusão ao Google e deu uma entrevista ao Washington Post expondo o caso. A empresa afastou o engenheiro e refutou suas alegações.

De fato, as conclusões de Lemoine vão na contramão do consenso científico estabelecido. A maioria dos especialistas acredita que, mesmo com a capacidade computacional de hoje, a IA está muito longe de alcançar níveis “intelectuais” semelhantes aos de um humano. Mesmo os sistemas mais sofisticados — que conversam, descrevem imagens e até escrevem poesia — não passam de uma espécie de ferramenta de autocompletar do Google com anabolizantes, sugerem.

— Há uma diferença enorme entre emular a consciência e criatividade e, de fato, ser consciente e criativo. Hoje, a inteligência artificial é uma ferramenta puramente estatística, que processa uma enorme quantidade de dados e faz cálculos de probabilidade — descarta Augusto Baffa, professor do Departamento de Informática da PUC-Rio.

Isso vale tanto para ferramentas populares, como a Alexa da Amazon, como para sistemas muito mais parrudos que o LaMDA. Enquanto ele processa 137 bilhões de parâmetros diferentes, o Google apresentou há dois meses o PaLM, que processa quase quatro vezes mais parâmetros. O PaLM é capaz de explicar piadas e escrever códigos de programação, mas ainda estaria no terreno das máquinas que imitam seres humanos.

— Mesmo esses sistemas são o que, na academia, classificamos de Inteligência Artificial Fraca. São modelos criados para executar uma tarefa específica e limitada. Para cogitarmos que um sistema possa adquirir consciência, a gente precisaria, no mínimo, ter o que chamamos de Inteligência Artificial Forte —analisa João Victor Archegas, pesquisador sênior de Direito do Instituto de Tecnologia e Sociedade (ITS).

A IA Forte é, por ora, um conceito puramente teórico. Designa uma máquina capaz de lidar com ampla quantidade de tarefas de forma concomitante, como conversar e enxergar, sendo, assim, consciente do mundo em sua volta, explica Archegas.

IA com sentimento

Segundo ele, parte importante da comunidade científica acredita que, com as ferramentas computacionais disponíveis hoje, seria impossível chegar à IA Forte — mesmo com a Lei de Moore, segundo a qual é possível dobrar a capacidade dos processadores a cada dois anos pelo mesmo custo. Seria preciso um advento capaz de mudar a ordem de grandeza computacional. O candidato natural é o computador quântico, que usa propriedades da física na escala dos átomos para alcançar capacidades de processamento inauditas. Até agora, essa máquina só existe em estágio experimental.

Além da IA Forte, especialistas conjecturam sobre a Artificial General Intelligence (AGI), uma IA com capacidade de “sentir” e “processar” o mundo de maneira mais sofisticada que o homem — a chamada Singularidade Tecnológica, tão temida quanto especulativa. No livro “Architects of Intelligence”, o futurista Martin Ford fez uma enquete com especialistas sobre quando a AGI deve surgir. A média das respostas foi 2099.

Mas, no campo da filosofia, um argumento influente contra a noção de que IAs Fortes ou superiores possam emergir é o do americano John Searle. Em 1980, ele propôs o experimento do Quarto Chinês. Nele, uma pessoa que fala chinês envia bilhetes para outra, que não fala o idioma e está sozinha em um quarto isolado.

Lá dentro, porém, um manual de instruções recomenda uma resposta correta em chinês para cada sequência de caracteres. Como resultado, a pessoa que domina chinês estará erroneamente convencida de que a outra também fala.

O ponto de Searle é que a IA não passa de uma pessoa que ignora chinês, mas se comunica com um manual de instruções — e, portanto, não manifesta consciência.

O experimento é uma refutação do Teste de Turing, proposto por Alan Turing no artigo de 1950. Enquanto descartava a possibilidade de que máquinas pudessem pensar, o britânico argumentava que melhor questionamento seria: elas conseguem se passar por seres humanos? Ele propunha um jogo em que uma pessoa se comunica com um computador por texto e um interrogador humano examina a conversa.

Se esse juiz não for capaz de dizer qual dos dois é a máquina, seria possível dizer que ela tem inteligência indistinguível — e, logo, equivalente — da dos humanos. Aparentemente, foi nesse teste que o LamDA passou ao convencer o engenheiro da Google. Mas a verdade é que até hoje nenhum computador passou de maneira irrefutável no Teste de Turing.

Em busca da Qualia

E o buraco epistemológico pode ser ainda mais embaixo, sugere Leopoldo Lusquino Filho, do Laboratório de Inteligência Artificial Recod.ai, da Unicamp:

— O grande problema é que ainda não sabemos nem mesmo o que é, nem como surge, a consciência humana. O que a neurociência conseguiu até agora é mapear correlações entre partes do cérebro e aspectos da consciência. Por isso, não conseguiríamos nem mesmo medir uma suposta consciência da IA. A subjetividade, o que os filósofos chamam de Qualia, é um mistério ainda no nível humano.

Talvez venha daí o desprezo de Turing por indagações dessa sorte. Mas, de fato, desde a origem, o campo da IA manifesta tendência a antropomorfizar as máquinas. A começar pela própria expressão “inteligência artificial”. Outro exemplo: o modelo de organização dos algoritmos nos ramos mais promissores da IA é conhecido como “rede neural” por ser vagamente baseado nos neurônios.

Ao mesmo tempo em que persegue uma IA à sua imagem e semelhança, o homem é assombrado por ela — do HAL 9000, do filme “2001: Uma Odisseia no Espaço” à Skyenet de “O Exterminador do Futuro”. Mas, se a ameaça existencial aterroriza, pouco tempo se dedica a pensar nos dilemas éticos que ela levantaria.

Será lícito realizar experimentos com “agentes inteligentes” como nós, tratá-los como escravos? A questão é levantada por Augusto Baffa, da PUC-Rio, assim como se a IA consciente será considerada uma cidadã, com direitos e deveres.

— Por isso que é importante a falar sobre isso agora, quando ainda estamos na IA Fraca. É hora de estabelecer os protocolos para evitar que cheguemos a esse ponto sem respostas. O que pautou moralmente a tecnologia até agora, por incrível que pareça, foram as Leis da Robótica, formuladas no âmbito da literatura por Isaac Asimov. Precisamos pensar em uma complementação — adverte Archegas, do ITS.

Fonte:  O Globo (26/06/2022)

Nenhum comentário:

Postar um comentário

"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".