Hoje com notícias do TikTok, X, Microsoft, Google, Meta, OpenAI, Microsoft e Amazon
O Senado dos EUA aprovou na noite de ontem uma lei determinando que a empresa chinesa ByteDance venda o TikTok até janeiro do ano que vem, sob pena de o aplicativo ser banido do país. O texto já havia passado pela Câmara e segue agora para sanção do presidente Joe Biden, que já sinalizou que não irá vetá-lo. Nesse caso, a empresa já anunciou que irá contestar judicialmente a lei, sob o argumento de que ela fere o direito à liberdade de expressão estabelecido na Primeira Emenda à Constituição americana. (CNN)
Elon Musk acusou a Austrália de censura depois que um juiz australiano decidiu que o X deve impedir que usuários em todo o mundo acessem o vídeo de um bispo sendo esfaqueado em uma igreja de Sydney. O primeiro-ministro Anthony Albanese respondeu nesta terça-feira descrevendo Musk como um “bilionário arrogante” que se considera acima da lei e está fora de contato com o público. A X Corp. anunciou na semana passada que contestaria na Justiça as ordens australianas para retirar postagens relacionadas ao ataque contra o bispo Mar Mari Emmanuel em uma igreja ortodoxa assíria, transmitido online no último dia 15. (NBC News)
A Microsoft lançou ontem o Phi-3, uma nova versão de um modelo de inteligência artificial (IA) desenvolvido para tarefas mais simples, como a criação de conteúdo e publicações nas redes sociais. A tecnologia é a menor já criada pela empresa desse tipo e possui 3,8 bilhões de parâmetros (conexões entre neurônios artificiais). Embora tenha sido treinado com um conjunto de dados menor em relação a grandes modelos de linguagem, como o GPT-4, da OpenAI, o Phi-3 se destaca por ser mais barato de operar devido à menor necessidade de poder computacional, mas também pode superar modelos com o dobro do seu tamanho. (The Verge)
As maiores empresas de tecnologia, como Google, Meta, OpenAI, Microsoft e Amazon, se comprometeram a revisar seus dados de treinamento de inteligência artificial para remover material de abuso sexual infantil (CSAM, em inglês) de seus futuros modelos de IA. As companhias prometem não utilizar esse material nos treinamentos, remover imagens ou links para fontes que tenham conteúdo abusivo, além de fazer “testes de resistência” com as IAs para garantir que não geraram CSAM. (The Verge)
Fonte: Canal do Meio (24/04/2024)
Nenhum comentário:
Postar um comentário
"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".