Aqui está um problema melhor
LarLar > blog > Aqui está um problema melhor

Aqui está um problema melhor

Aug 14, 2023

O conteúdo gerado pela IA está a começar a poluir a Internet, as empresas e as escolas numa escala sem precedentes. Em alguns casos, pode ser mais fácil detectar texto humano do que sinalizar conteúdo generativo de IA. No mínimo, eles poderiam se complementar.

O rápido crescimento do conteúdo gerado por IA está impulsionando a discussão sobre como os fornecedores de IA podem melhorar as ferramentas para detectar conteúdo gerado por IA. Esta é uma aspiração importante, mas este tipo de abordagens já está aquém do texto. E não apenas para os “chapéus negros” que tentam violar a segurança da IA ​​ou desestabilizar as democracias. Estudantes preguiçosos, funcionários sobrecarregados, comerciantes de produtos inescrupulosos e fábricas exploradoras de rotulagem de dados violarão facilmente a maioria das proteções com uma edição leve. Uma abordagem muito melhor pode ser detectar humanos usando alguma combinação de metadados paralinguísticos e criptografia de chave pública.

E estão surgindo ferramentas que podem ajudar a estabelecer uma cadeia de proveniência para isso. Como escrevi anteriormente na Diginomica, os detectores de conteúdo de IA para vídeo, áudio e imagens podem se basear em uma longa história de ferramentas de marca d'água digital e proteção de propriedade intelectual. No entanto, as ferramentas para detectar automaticamente texto gerado por IA são um problema muito mais difícil de resolver. Marcas d'água digitais são muito mais difíceis de incorporar em texto simples. Alguns progressos interessantes estão sendo feitos na incorporação de padrões estatísticos, uso estranho de gramática e até mesmo convenções de pontuação no texto. Um exemplo foi o esforço da Genius para incorporar um padrão estranho nas letras de suas músicas para provar que o Google estava copiando diretamente seu conteúdo. Esse caso, no entanto, não conseguiu vencer o processo judicial.

Os sistemas escolares em todo o mundo estão preocupados com o fato de que o progresso recente na IA generativa alimentada pelo Large Language Model (LLM) irá turbinar os esforços dos alunos para trapacear. A longo prazo, o sucesso neste esforço pode produzir uma grande colheita de trabalhadores incompetentes, incapazes de gerir eficazmente empresas, governos e, bem, ensinar. Mas este não é apenas um problema acadêmico. Os governos estão a começar a promulgar legislação relativa a práticas inescrupulosas de avaliação de produtos e serviços. O Reino Unido está atualmente trabalhando em uma proposta de Lei de Mercados Digitais, Concorrência e Consumidor que proíbe a troca de dinheiro ou bens gratuitos para escrever análises de produtos. É apenas uma questão de tempo até que legislação semelhante seja alargada a abordagens mais automatizadas, como profissionais de marketing inescrupulosos que criam uma multidão de seres humanos falsos para exaltar as maravilhas dos seus produtos ou para falar mal das ofertas competitivas.

E as empresas de rotulagem de dados estão a começar a lidar com uma rede dispersa de humanos pagos para aplicar rótulos a conteúdos para treinar a próxima geração de IA. Isso é essencial para garantir que futuras ferramentas de IA possam melhorar na identificação de objetos em imagens, examinar conteúdo tóxico ou melhorar o desempenho de uma nova safra de aplicativos empresariais de IA. Uma preocupação é que rotuladores de dados sobrecarregados possam recorrer ao ChatGPT e outros LLMs. Embora isso possa ser ótimo para a produtividade dos dados e algumas tarefas de rotulagem de dados. Uma desvantagem é que treinar LLMs em conteúdo gerado por IA pode levar ao colapso do modelo de IA, no qual os novos modelos também não funcionam.

Há alguns anos, o setor bancário lutou contra o aumento da fraude potencializada pelos novos serviços online. Entretanto, uma economia crescente de subscrições enfrentava dificuldades com a partilha de palavras-passe, em que os indivíduos partilhavam as suas palavras-passe para serviços de informação altamente valiosos com amigos e familiares. Observou-se que muitas informações estão incorporadas não apenas no texto da senha, mas também nos metadados sobre como a senha é digitada. Devido aos vários estilos de digitação, cadência e ritmo, as pessoas tendem a digitar as letras reais de maneiras totalmente diferentes. Várias equipes chamam isso de biometria comportamental, dinâmica de teclas ou metadados paralinguísticos. Diferentes sabores dessas técnicas também podem estender o conceito para técnicas de mouse e entrada de voz.

Na área acadêmica, faria sentido incorporar medidas dessas métricas comportamentais em uma nova geração de processadores de texto. Talvez nem seja necessário desenvolver aplicativos inteiramente novos. Eles poderiam simplesmente ser incorporados a uma biblioteca de código aberto que os processadores de texto, aplicativos da web e outras ferramentas existentes poderiam consumir.