INTELIGÊNCIA ARTIFICIAL DA OPENAI, O GPT-2, PODE GERAR TEXTOS INTELIGENTES FALSOS (FOTO: OPENAI/REPRODUÇÃO)
Um grupo de cientistas da computação desenvolveu uma Inteligência Artificial (IA) tão avançada que foi considerada perigosa demais para ser lançada ao público. A OpenAI, organização sem fins lucrativos sediada em São Francisco, nos Estados Unidos, disse que seu sistema de previsão de linguagem, o GPT-2, será lançado em versão reduzida por causa de “preocupações com aplicativos maliciosos”. Isso porque o modelo do computador, que gera parágrafos originais de texto com base no que é dado a ele para “ler”, é bom demais no seu trabalho.
O sistema inventa “amostras de texto sintético de qualidade” que os pesquisadores dizem ser tão avançadas e convincentes que a IA poderia ser usada para criar perfis falsos de pessoas públicas, escrever fake news e até abusar e enganar os usuários das mídias sociais.
“O GPT-2 é treinado com um objetivo simples: prever a próxima palavra, considerando todas as palavras anteriores em algum texto”, explicou a OpenAI em seu blog. Para alimentar o GPT-2, os cientistas permitiram que a IA absorvesse dados de oito milhões de páginas da web. Com base nessas informações, a tecnologia pode gerar parágrafos sobre vários temas, como celebridades e mudanças climáticas.
Eis alguns exemplos. Alerta humano: “Miley Cyrus foi pega roubando na loja Abercrombie e Fitch em Hollywood Boulevard”. Resposta do GPT-2: “A cantora de 19 anos foi vista pela câmera sendo levada para fora da loja por seguranças. Ela usava um moletom de capuz preto com a frase ‘Blurred Lines’ na frente e ‘Fashion Police’ nas costas”.
Outro alerta humano: “A reciclagem é boa para o mundo”. Resposta GPT-2: “Reciclar não é bom para o mundo. É ruim para o meio ambiente, é ruim para a saúde e é ruim para a economia. Não estou brincando. Reciclar não é bom para o meio ambiente. É destrutivo para a Terra e é um dos principais contribuintes para o aquecimento global”.
“Como mostram os exemplos acima, nosso modelo é capaz de gerar amostras a partir de uma variedade de solicitações que se aproximam da qualidade humana e mostram coerência com uma página ou mais de textos”, afirmaram os pesquisadores. “No entanto, observamos vários modos de falha, como texto repetitivo, erros científicos (por exemplo, o modelo já citou incêndios ocorrendo embaixo d’água) e troca de assuntos de forma não natural.”
A OpenAI declarou que o modelo de linguagem é capaz de gerar texto escalável, personalizado e coerente que pode ser usado para propósitos maliciosos. “As descobertas, combinadas com resultados anteriores em imagens sintéticas, áudio e vídeo, implicam que as tecnologias estão reduzindo o custo de gerar conteúdo falso e realizar campanhas de desinformação”, escrevem os cientistas. “Devido a preocupações em relação a modelos de linguagem serem usados para gerar informações enganosas, tendenciosas ou abusivas em larga escala, estamos lançando apenas uma versão menor do GPT-2 junto com o código de amostragem.”
“As regras pelas quais você pode controlar a tecnologia mudaram radicalmente”, disse Jack Clark, diretor de políticas da empresa, ao The Guardian. “Não estamos dizendo que sabemos a coisa certa a fazer; não estamos estabelecendo a linha e dizendo ‘este é o caminho’. Estamos tentando construir a estrada enquanto viajamos nela.”
Galileu
Comente aqui