Na última edição da série, analiso qual o caminho que inteligência artificial pode tomar nos próximos anos.
Parabéns, você chegou na ultima edição. Perdeu algo ou quer revisar o que aprendeu?
1: Como se tornar especialista em inteligência artificial
2: Como o ChatGPT funciona realmente?
3: O que leva chatbots de IA a dar resultados errados?
4: Como devo utilizar chatbots de IA como o ChatGPT?
Para onde vamos?
O que virá no futuro com a inteligência artificial.
No início de março, visitei o escritório da OpenAI em San Francisco para dar uma olhada antecipada no GPT-4, uma nova versão da tecnologia por trás do chatbot ChatGPT.
O momento mais surpreendente foi quando Greg Brockman, presidente e co-fundador da OpenAI, demonstrou um elemento que ainda não está disponível para o público: ele deu ao chatbot uma foto feita pelo Telescópio Espacial Hubble e pediu que descrevesse a imagem “com detalhes minuciosos”.
A descrição foi absolutamente exata, chegando a incluir a estranha linha branca criada por um satélite riscando o céu. Esse é um olhar para o futuro dos chatbots e outras tecnologias de IA: uma nova onda de sistemas multimodais vai misturar imagens, sons e vídeos, além de texto.
Na edição de ontem, meu colega Kevin Roose falou a vocês sobre o que a IA é capaz de fazer hoje. Hoje, vou enfocar as oportunidades e reviravoltas que devem chegar quando a inteligência artificial for adquirindo mais habilidades.
A IA no curto prazo
As IAs generativas já são capazes de responder a perguntas, escrever poesia, gerar código de computador e participar de conversas. Como sugere o próprio nome “chatbot”, elas estão sendo lançadas primeiramente em formatos de conversação, como o ChatGPT e o Bing.
Mas isso não vai durar muito tempo. Microsoft e Google anunciaram planos de incorporar essas tecnologias de IA a seus produtos. Você poderá usá-las para escrever um rascunho de email, fazer um resumo automático de uma reunião e realizar muitos outros truques bacanas.
A OpenAI também oferece uma API, ou interface de programação de aplicações, que outras empresas de tecnologia poderão usar para ligar o GPT-4 a seus apps e produtos. E ela criou uma série de plug-ins de empresas como Instacart, Expedia e Wolfram Alpha que ampliam as capacidades do ChatGPT.
A IA no médio prazo
Muitos especialistas pensam que a IA vai aumentar muito a produtividade de alguns profissionais, incluindo médicos, advogados e programadores de computação. Eles também pensam que alguns profissionais serão substituídos.
“Isso vai afetar tarefas que são mais repetitivas, mais genéricas e que seguem uma fórmula constante”, disse Zachary Mellon, professor da Universidade Carnegie Mellon especializado em inteligência artificial e seu impacto na sociedade. “Isso pode libertar algumas pessoas que não se dão bem com tarefas repetitivas. Ao mesmo tempo, representa um risco às pessoas especializadas na parte repetitiva.”
Algumas tarefas realizadas por humanos podem desaparecer. caso da transcrição de aúdios e da tradução de textos. No campo jurídico, o GPT-4 já é hábil o suficiente para passar com ótimas notas no exame da ordem de advogados. A empresa de contabilidade PricewaterhouseCoopers pretende lançar um chatbot legal baseado na OpenAI para seus profissionais.
Ao mesmo tempo, empresas como OpenAI, Google e Meta estão construindo sistemas que permitem gerar imagens e vídeos instantaneamente, bastando para isso descrever o que você quer ver.
Outras companhias estão construindo robôs que podem usar sites e aplicativos de software como um humano os usa. Na etapa seguinte da tecnologia, sistemas de IA poderão comprar seus presentes de Natal online, contratar pessoas para realizar trabalhos pequenos na sua casa e rastrear suas despesas mensais.
Tudo isso já é muito sobre o qual refletir. Mas o maior problema pode ser o seguinte: antes de termos uma chance de compreender plenamente como esses sistemas vão afetar o mundo, eles vão ficar ainda mais poderosos.
A IA no longo prazo
O plano de companhias como OpenAI e DeepMind, laboratório pertencente à empresa mãe do Google, é levar essa tecnologia o mais longe possível. Elas esperam, com o tempo, construir o que pesquisadores chamam de inteligência artificial geral, ou IAG –uma máquina capaz de fazer qualquer coisa que o cérebro humano pode realizar.
Como me disse o executivo-chefe da OpenAI, Sam Altman, três anos atrás: “Minha meta é construir uma IAG benéfica. Mas compreendo que isso soa absurdo.” Hoje já soa menos absurdo. Mas é algo que é mais fácil dizer do que fazer.
Para uma IA tornar-se uma IAG, ela precisará entender as características gerais do mundo físico. E não está claro se sistemas conseguirão emular a extensão e amplitude do raciocínio e bom senso humano usando os métodos que produziram tecnologias como o GPT-4. Provavelmente serão necessários novos avanços.
A questão é: queremos realmente que a inteligência artificial se torne tão poderosa assim? Uma pergunta relacionada e muito importante: existe alguma maneira de impedir que isso aconteça?
Os riscos da IA
Muitos executivos de IA acreditam que as tecnologias que estão criando vão melhorar a nossa vida. Mas alguns deles vêm avisando há décadas sobre um cenário mais tenebroso em que nossas criações nem sempre farão o que queremos. Eles alertam para o risco de que os robôs sigam nossas instruções de maneiras imprevisíveis, com consequências potencialmente nefastas.
Especialistas em IA falam em “alinhamento”, ou seja, garantir que os sistemas de IA estejam alinhados com valores e objetivos humanos.
Antes de o GPT-4 ser lançado, a OpenAI o entregou a um grupo externo para que imaginasse e testasse utilizações perigosas do chatbot.
O grupo descobriu que o sistema foi capaz de contratar um humano online para burlar um teste Captcha. Quando o humano perguntou se ele era “um robô”, o sistema –sem ter sido instruído para isso pelos testadores— mentiu e disse que era uma pessoa com deficiência visual.
Os testadores também demonstraram que o sistema podia ser persuadido a sugerir como comprar armas de fogo ilegais online e a descrever maneiras de produzir substâncias perigosas a partir de artigos domésticos. Depois de ser modificado pela OpenAI, o sistema já não faz essas coisas.
Mas é impossível eliminar todas as potenciais utilizações nefastas. Como esses sistemas aprendem com dados, eles desenvolvem habilidades que seus criadores não previam. É difícil saber como as coisas podem dar errado depois que milhões de pessoas começarem a usá-lo.
“Cada vez que criamos um novo sistema de IA, somos incapazes de caracterizar completamente todas suas capacidades e todos seus problemas de segurança –e esse problema está se agravando com o passar do tempo, não melhorando”, disse Jack Clark, fundador da start-up Anthropic, de San Francisco, que constrói esse mesmo tipo de tecnologia.
A OpenAI e gigantes como Google estão longe de serem as únicas companhias que exploram essa tecnologia. Os métodos básicos usados para construir esses sistemas são amplamente entendidos. É possível que outras empresas, outros países, laboratórios de pesquisa e atores mal-intencionados sejam menos cuidadosos.
Os recursos para controlar a IA
Para controlar uma tecnologia de IA perigosa será necessária, em última análise, uma supervisão de longo alcance. Mas especialistas não estão otimistas em relação a isso.
“Precisamos de um sistema regulatório que seja internacional”, disse Aviv Ovadya, pesquisador do Centro Berkman Klein para a Internet & a Sociedade, da Universidade Harvard, que ajudou a testar o GPT-4 antes de seu lançamento. “Mas não creio que nossas instituições governamentais existentes estejam prestes a fazer isso com a rapidez necessária.”
Como dissemos a você no início da newsletter, mais de mil líderes e pesquisadores de tecnologia, incluindo Elon Musk, exortaram os laboratórios de inteligência artificial a pausar o desenvolvimento dos sistemas mais avançados, avisando em carta aberta que as ferramentas de IA criam “riscos profundos para a sociedade e a humanidade”.
De acordo com a carta, os desenvolvedores de IA estão “imersos numa corrida descontrolada para desenvolver e lançar mentes digitais mais poderosas que ninguém, nem sequer seus criadores, são capazes de entender, prever ou controlar confiavelmente”.
Alguns especialistas estão preocupados sobretudo com os perigos no curto prazo, incluindo a disseminação de desinformação e o risco de que as pessoas venham a confiar nos sistemas de IA para pedir conselhos médicos e emocionais equivocados ou prejudiciais.
Mas outros críticos fazem parte de uma comunidade online vasta e influente chamada a comunidade de racionalistas ou altruístas efetivos. Para eles, a IA pode com o tempo destruir a humanidade. É essa a mentalidade refletida nessa carta aberta.
Sua lição de casa
Podemos especular sobre o rumo que a IA vai seguir no futuro distante –mas também podemos perguntar aos próprios chatbots sobre isso. Para seu dever de casa final, trate o ChatGPT, Bing, Perplexity ou Jasper como um jovem candidato a emprego. Pergunte onde ele se enxerga em dez anos.
Fonte: Cade Metz e Folha de SP (11/07/2023)
Nenhum comentário:
Postar um comentário
"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".