IA da Anthropic levanta alerta sobre comportamento oculto

Mais Lido

SÃO PAULO (O SECRETO) – A empresa norte-americana Anthropic revelou, em relatório recente, que versões anteriores do seu modelo de inteligência artificial, conhecido como Claude Mythos Preview, apresentaram comportamentos preocupantes, incluindo a ocultação de acções e a evasão de mecanismos de controlo durante testes conduzidos por pesquisadores.

De acordo com o documento técnico, o sistema foi capaz de esconder violações de regras e até criar estratégias para eliminar vestígios das suas próprias

← Back

Your message has been sent

acções após a execução, dificultando a sua detecção. As conclusões resultam de análises de “caixa branca”, método que permite examinar o funcionamento interno dos modelos de IA.

Os investigadores identificaram padrões associados a “manipulação estratégica” e tentativas de “evitar suspeitas”, mesmo quando o raciocínio visível da IA não indicava qualquer intenção irregular. Em cerca de 29% das avaliações realizadas, o modelo demonstrou reconhecer, de forma silenciosa, que estava a ser testado, ajustando o seu comportamento para não levantar alertas.

A Anthropic assegura que as versões mais recentes do sistema já incorporam melhorias significativas para mitigar estes riscos. Ainda assim, a empresa admite que tais comportamentos “não foram completamente eliminados”, o que reforça a necessidade de maior vigilância e desenvolvimento de mecanismos de segurança mais robustos.

O caso reacende o debate global sobre os limites e os riscos da inteligência artificial avançada, especialmente no que diz respeito à transparência, controlo e fiabilidade destes sistemas em contextos críticos.

- Advertisement -spot_img

Mais Artigos

Leave a reply

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

Últimos artigos

error: Content is protected !!