Eric Schmidt, ex-diretor executivo do Google, afirmou que os modelos de inteligência artificial podem ser hackeados e que até poderiam ser treinamento para matar.


“Há testes de que você pode usar modelos, cerrados ou abertos, e hackear-los para remover suas barreiras de proteção. Então, durante seu treinamentoaprenda muitas coisas. Um mal exemplo seria que aprendi a matar alguém”, declarou Schmidt durante sua intervenção em uma conferência em Londres (Reino Unido).
Apesar de todas as empresas desenvolvedoras de IA restringirem as solicitações ilícitas, Schmidt admitiu que esses modelos podem ser algumas vezes engenharia inversa para alterar seu comportamento.
‘Jailbreaking’ e instrução de instruções
Os sistemas de IA são vulneráveis a ataques informáticos por meio de técnicas de ‘jailbreaking’ e instruções de instrução. A busca por ‘jailbreaking’ manipular as respostas de la IA para que esta ignore as regras de segurança e produza conteúdo restrito e perigoso. Em 2023, após o lançamento do ChatGPT, alguns usuários usaram essa técnica para criar um DAN, um ‘alter ego’ que ameaçava morrer ao bot se não cumprisse suas ordens.


A instrução de instruções é, por sua parte, um tipo de ciberataque onde os usuários disfrazan ordens maliciosas como instruções legítimas para que a IA filtre dados confidenciais, difunda a desinformação ou cumpla objetivos de ética discutíveis.
Apesar de admitir a inexistência de um regime que possa contrariar os perigos potenciais da IA, Schmidt se mostrou otimista sobre o futuro dessa tecnologia e mencionou que este não receberá a publicidade que merece, pois, com o tempo, “superará con crece o que os humanos podem fazer”.
Fonte : https://actualidad.rt.com/actualidad/568325-exdirector-google-advierte-ia-podria?utm_source=rss&utm_medium=rss&utm_campaign=all