terça-feira, 24 de janeiro de 2023

TIC: O que é ChatGPT e por que alguns o veem como ameaça?



O ChatGPT surpreende pela fluência que imita o discurso humano

Em 30 de novembro passado, enquanto o mundo começava a entrar no clima de fim de ano e tinha os olhos mais voltados para a Copa do Catar, estreava um programa que logo foi considerado um passo adiante no progresso da inteligência artificial: o ChatGPT.

Mas as consequências para a humanidade de seu uso em larga escala ainda precisam ser totalmente compreendidas.

O salto evolutivo desse novo sistema está no poder de gerar conteúdo de forma bastante coerente e também por conseguir "soar mais humano".

Apesar de erros e falhas ainda existentes, a capacidade já demonstrada pelo programa — e seu potencial de se desenvolver ainda mais a longo prazo — vem provocando não só admiração, mas também alguns temores.

Basta observar a quantidade de análises que associam o ChatGPT à palavra "ameaça". Muitos acham que o programa parece convincente demais ao mimetizar o discurso de um ser humano e anteveem problemas.

São questionamentos sobre a possibilidade de forte ruptura em áreas como criatividade, aprendizado e educação, trabalho, segurança digital — e a própria democracia, como afirmou um artigo recente no jornal The New York Times.

Segundo os autores, o que antes era uma pessoa expressando sua opinião política agora pode ser apenas um robô que gera artificialmente um argumento.

O que é o programa?

O ChatGPT é, basicamente, um robô virtual (chatbot) que responde a perguntas variadas, realiza tarefas por escrito, conversa de maneira fluida e inclusive dá conselhos sobre problemas pessoais (embora haja a advertência de que não possui esse objetivo e que as orientações passadas são genéricas. Mas ele quase sempre atende o usuário em busca de aconselhamento).

As possibilidades de geração de conteúdo são imensas.

Ele pode, por exemplo, ensinar a preparar um estrogonofe — e com um toque diferente na receita, se você especificar —, dar dicas para conseguir uma vaga de trabalho, escrever poesia, trabalhos acadêmicos ou um modelo de procuração judicial e também redigir uma carta de reconciliação para um amigo de quem você se distanciou.

O ChatGPT atende em questão de segundos um pedido aleatório como "escreva um poema sobre inteligência artificial no estilo de Carlos Drummond de Andrade" — a qualidade do resultado, a depender do crítico, pode ser bastante discutível.

Segundo testes do site SEO.ai, o ChatGPT está disponível em quase 100 línguas (incluindo português do Brasil), mas a performance do modelo varia conforme o idioma (funciona melhor em inglês).

O sistema foi desenvolvido pela OpenAI, empresa fundada em 2015 nos EUA por Sam Altman (hoje sua principal figura) e pelo onipresente Elon Musk (que se desligou dela em 2018 por considerar que havia conflito de interesse com o seu principal empreendimento, a companhia automotiva Tesla).

Cinco dias após seu lançamento, o ChatGPT chegou a mais de 1 milhão de usuários (que, ironicamente, precisam ser humanos; você precisa provar que não é um robô ao logar). Essas interações estão sendo utilizadas para treinar e desenvolver o modelo.

A OpenAI diz que o uso será gratuito e aberto a todos durante essa etapa de "teste e pesquisa" — levando especialistas a especular sobre futuros tipos de monetização da ferramenta.

A companhia também adverte que, nesse período, o software "pode ocasionalmente gerar informações incorretas ou enganosas" e que seu histórico de dados está limitado a 2021.

Apesar de ter sido apontado como uma possível ameaça à hegemonia do Google como facilitador de informações na internet, o sistema ainda comete erros crassos, como dizer que o Brasil já ganhou ao menos cinco prêmios no Oscar (na verdade, o país nunca levou uma estatueta).

Resposta dada pelo ChatGPT errada

O ChatGPT ainda comete erros grosseiros como uma pergunta sobre o número de Oscars que o Brasil ganhou. O país nunca ganhou um prêmio da Academia

Por que o ChatGPT é considerado um avanço para a IA?

Programas poderosos de inteligência artificial baseados em texto funcionam armazenando quantidades gigantescas de dados (com ênfase em palavras e conversas nesse caso) e com algoritmos para prever o melhor encadeamento de uma frase. São chamados de grandes modelos de linguagem (LLM, na sigla em inglês).

O professor da Unifesp Álvaro Machado Dias, futurista e neurocientista, explica que no treinamento de um software são feitas perguntas para o chatbot como "o que é um cilindro?" e técnicos elaboram as próprias respostas.

"Caso a resposta do chatbot não seja correta, são inseridas as corretas no sistema para ensiná-lo. Isso é repassado para outras situações automaticamente."

Apesar de já usarem uma modalidade que consegue depreender o contexto de uso das palavras, permitindo textos mais bem concatenados, programas anteriores não respondiam tão bem ao usuário ou ainda soavam muito artificiais. O ChatGPT aprendeu a conversar de uma forma mais próxima de um humano.

Machado Dias diz que o diferencial desse programa é o emprego de uma técnica que entende como a linguagem funciona: o reforço de aprendizado por feedback humano (RLHF, na sigla em inglês).

Engenheiros aplicam métodos de "recompensa" e "punição" para ensinar ao sistema as formas mais desejáveis de interação. É um processo de sintonia fina.

"Na prática, os engenheiros ordenam as respostas dadas pelo algoritmo de acordo com a sua relevância e estimulam o programa a aprender as preferências listadas na ordenação para aumentar a relevância das produções textuais. O resultado é dado na forma de textos que parecem mais profundos e significativos do que os das alternativas", diz o professor da Unifesp.

O ChatGPT foi também treinado para admitir erros, contestar premissas incorretas e rejeitar pedidos inapropriados.

Mas um professor da Universidade da Califórnia conseguiu que o sistema escrevesse um código de programação para dizer que apenas homens brancos ou asiáticos formam bons cientistas.

A OpenAI afirma que embora tenha feito esforços nesse sentido, o programa "às vezes vai responder a instruções problemáticas ou exibir comportamento enviesado".

Segundo a empresa, os dados coletados nessa etapa de testes vão servir para melhorar o sistema.

É uma ameaça ao aprendizado e à criatividade?

A ameaça de disrupção já paira sobre trabalho e emprego. Campos que dependem do texto, como o jornalismo, poderão ser largamente modificados — e vagas poderão sumir para sempre.

A competência do ChatGPT em gerar códigos também já provoca questionamentos em um setor relativamente novo, a programação.

Mas uma das áreas que vem percebendo desde já o potencial de problemas do ChatGPT é justamente uma das mais afetadas pela chegada de novas tecnologias: a educação.

A tentação entre estudantes de usar o programa para encontrar respostas prontas para suas tarefas levou Nova York a tomar uma decisão rápida: apenas um mês após sua estreia, o sistema foi proibido nas escolas e dispositivos da rede pública da cidade americana.

A OpenAI vem trabalhando em uma espécie de marca d'água digital que identifique que o conteúdo foi originado no ChatGPT. Já existem algoritmos que calculam com boa precisão a probabilidade de um texto ter sido feito por um chatbot.

Além do "copiar e colar", há o temor de impactos estruturais no aprendizado humano. Por exemplo, o exercício cognitivo de escrever uma redação com começo, meio e fim, concatenando ideias de forma coesa, será afetado?

Fonte: BBC (19/01/2023)

Nenhum comentário:

Postar um comentário

"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".