
O próprio diretor executivo da OpenAI, Sam Altman, reconheceu que o recente acordo estabelecido com o Departamento de Defesa dos Estados Unidos foi “definitivamente precipitado” e que a imagem transmitida perante o público não foi a melhor. A decisão de avançar rapidamente com a parceria surgiu logo após as negociações entre a Anthropic e o Pentágono terem fracassado na sexta-feira.
Este colapso nas negociações levou o Presidente Donald Trump a ordenar que as agências federais deixassem de utilizar a tecnologia da empresa rival num prazo de seis meses, com o Secretário da Defesa, Pete Hegseth, a classificá-la como um risco para a cadeia de abastecimento. Com a concorrência a traçar limites rigorosos contra a utilização da sua tecnologia em armas autónomas ou na vigilância em massa a nível interno, a criadora do ChatGPT apressou-se a anunciar uma parceria para ambientes classificados, garantindo ter exatamente as mesmas linhas vermelhas.
As regras de utilização e as críticas de vigilância
Para tentar esclarecer as dúvidas sobre o porquê de ter conseguido fechar um contrato onde a concorrência falhou, a tecnológica partilhou os detalhes da sua abordagem. De acordo com o comunicado oficial da empresa, existem três áreas bloqueadas para os seus modelos: vigilância doméstica em massa, sistemas de armas autónomas e decisões automatizadas de alto risco, dando como exemplo os sistemas de crédito social.
A empresa distancia-se de outras entidades do setor que reduziram as suas barreiras de segurança, afirmando que mantém uma proteção baseada em múltiplas camadas. Esta estratégia inclui o controlo total sobre a sua infraestrutura de segurança, a implementação feita apenas através da nuvem, a supervisão por pessoal devidamente credenciado e fortes proteções contratuais.
No entanto, a justificação levantou alarmes. Mike Masnick, do portal Techdirt, argumentou que o acordo abre, de facto, as portas à vigilância interna, uma vez que a recolha de dados privados irá cumprir com a Ordem Executiva 12333. Segundo o especialista, esta é a mesma diretiva utilizada pela NSA para ocultar a vigilância de cidadãos norte-americanos, intercetando as comunicações através de ligações sediadas fora dos Estados Unidos.
A justificação da liderança e a arquitetura técnica
Face à polémica, a responsável pelas parcerias de segurança nacional, Katrina Mulligan, recorreu a uma publicação no LinkedIn para defender o acordo. Mulligan explicou que a discussão tem assumido erradamente que apenas uma cláusula contratual com o Departamento da Guerra impede o uso indevido da inteligência artificial. A responsável sublinhou que a arquitetura técnica tem mais peso do que a linguagem jurídica, garantindo que a limitação do serviço a uma API na nuvem impossibilita a integração direta dos modelos em armamento, sensores ou qualquer outro hardware operacional.
Na rede social X, Sam Altman também deu a cara e respondeu aos utilizadores, assumindo que a velocidade do negócio gerou uma forte onda de reações negativas, resultando até na ultrapassagem do ChatGPT pelo concorrente Claude na loja de aplicações da Apple durante o fim de semana. O executivo explicou que o objetivo principal foi reduzir a escalada de tensão entre o Departamento da Guerra e a indústria tecnológica. Altman concluiu que, se a estratégia resultar numa verdadeira pacificação entre o governo e as empresas, serão vistos como visionários dispostos a sofrer pelo bem do setor. Caso contrário, a empresa continuará a ser rotulada como precipitada e descuidada.
from TugaTech https://ift.tt/NA1MhtD
https://ift.tt/rkh0nL5
Share your thoughts here.