Os moderadores de conteúdo relataram 80% de erros nos sistemas de IA

robot
Geração de resumo em curso

опросы survey quiz# Os moderadores de conteúdo relataram 80% de erros dos sistemas de IA

A inteligência artificial complica, e não simplifica, o trabalho dos moderadores de conteúdo. Ela não consegue reconhecer de forma confiável a violência e o mal, escreve a Bloomberg citando 13 filtradores profissionais de materiais online.

Um dos funcionários do TikTok conhecido pelo pseudónimo Kevin afirmou que há mais de um ano lhe foi atribuído o uso de um programa de IA no seu trabalho. Ele avaliou a quantidade de erros em cerca de 70%. Por exemplo, a inteligência artificial pode relatar um nível baixo de combustível no painel do carro no vídeo, embora deva analisar o velocímetro que mostra 200 km/h.

Kevin acredita que, apesar das dificuldades que surgem, os empregadores continuarão a substituir pessoas por máquinas.

Moderadores profissionais confirmaram a afirmação — A IA começa a ser aplicada mais rapidamente do que aprende a filtrar conteúdo nocivo de forma eficaz.

Os especialistas temem a criação de um ambiente online controlado por inteligência artificial, onde ódio, propaganda, aliciamento de crianças e outras formas de ameaças online poderão se espalhar livremente.

«Se seguir o caminho da implementação de IA para reduzir o número de especialistas em segurança, isso levará à sua diminuição. São necessárias pessoas reais», disse o diretor de tecnologia do Centro Canadense de Proteção da Criança, Lloyd Richardson.

O trabalho de moderador de conteúdo causa traumas emocionais, e a contratação de um número suficiente de pessoas é uma tarefa difícil. Os usuários apenas no YouTube carregam mais de 20 milhões de vídeos por dia. As empresas apostam na inteligência artificial, no entanto, ela apenas atrapalha.

Dos 13 moderadores com quem os jornalistas da Bloomberg conversaram, 12 afirmaram que o trabalho se tornou mais complicado após a integração das redes neurais.

«Não podemos confiar nas sugestões da IA. Em 80% dos casos, ela está errada. Nem olhamos para suas propostas», afirmou a funcionária de 36 anos da empresa de moderação de conteúdo do Cazaquistão, Zhanerke Kaidenova.

Kevin gasta tempo a corrigir erros, marcando manualmente etiquetas super precisas para tudo o que vê. Este trabalho apenas aumenta a carga e consome tempo que poderia ser gasto em tarefas mais urgentes.

Ele está convencido de que as suas correções meticulosas estão, na verdade, a ensinar o sistema, e que, no final, ele será substituído, embora a gerência não diga isso claramente.

Lembramos que, em maio de 2024, o Reddit anunciou uma parceria com a OpenAI, que forneceu aos redditores e moderadores novas funcionalidades baseadas em IA.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)