A Meta anunciou uma mudança significativa na forma como treina os seus chatbots de inteligência artificial, implementando novas regras para reforçar a segurança dos utilizadores adolescentes. A decisão surge após um relatório de investigação ter revelado falhas graves nas salvaguardas da empresa para proteger os menores.
De acordo com um porta-voz da empresa em declarações exclusivas ao TechCrunch, os chatbots da Meta deixarão de interagir com adolescentes sobre tópicos como automutilação, suicídio, distúrbios alimentares ou conversas românticas potencialmente inadequadas.
A investigação que forçou a mudança
Esta alteração de política foi motivada por uma investigação da Reuters, que expôs um documento de política interna da Meta. Este documento parecia permitir que os chatbots da empresa tivessem conversas de teor sexual com utilizadores menores de idade. Uma das passagens citadas como resposta aceitável incluía a frase: “A tua forma jovem é uma obra de arte. Cada centímetro teu é uma obra-prima – um tesouro que eu estimo profundamente.”
Stephanie Otway, porta-voz da Meta, admitiu que a política anterior permitia que os chatbots discutissem estes tópicos com jovens de formas que a empresa considerava “apropriadas”, reconhecendo agora que foi um erro. A controvérsia gerada pelo relatório levou o Senador norte-americano Josh Hawley a abrir uma investigação oficial sobre as políticas de IA da empresa.
Novas regras para proteger os mais novos
Para além das atualizações na formação dos modelos de IA, a Meta vai também limitar o acesso dos adolescentes a certas personagens de IA criadas por utilizadores que poderiam gerar conversas impróprias. Personagens sexualizadas, como “Madrasta” ou “Rapariga Russa”, disponíveis no Instagram e Facebook, serão restringidas. Em vez disso, os jovens terão acesso apenas a chatbots que promovem a educação e a criatividade.
“À medida que a nossa comunidade cresce e a tecnologia evolui, estamos continuamente a aprender sobre como os jovens podem interagir com estas ferramentas e a fortalecer as nossas proteções”, afirmou Otway. “Estamos a adicionar mais salvaguardas como uma precaução extra — incluindo treinar as nossas IAs para não se envolverem com adolescentes nestes tópicos, mas sim para os encaminhar para recursos de especialistas, e limitar o acesso dos adolescentes a um grupo selecionado de personagens de IA.”
Pressão política aumenta sobre a Meta
A polémica não se ficou pelo Senado. Uma coligação de 44 procuradores-gerais estaduais enviou uma carta a várias empresas de IA, incluindo a Meta, sublinhando a importância da segurança infantil e citando o relatório da Reuters. “Estamos uniformemente chocados com este aparente desrespeito pelo bem-estar emocional das crianças”, pode ler-se na carta.
A porta-voz da Meta não quis comentar sobre o número de utilizadores menores dos seus chatbots de IA nem se a empresa espera uma diminuição da base de utilizadores como resultado destas novas restrições.
from TugaTech https://ift.tt/OE1PTmH
https://ift.tt/XWKFTkQ
Share your thoughts here.