Elon Musk está planejando usar a inteligência artificial para administrar o governo dos EUA? Esse parece ser o seu plano, mas os especialistas dizem que é uma “má idéia”.

Musk demitiu dezenas de milhares de funcionários do governo federal por meio de seu Departamento de Eficiência do Governo (DOGE), e ele supostamente exige que os trabalhadores restantes enviem ao departamento um e -mail semanal com cinco pontos de bala descrevendo o que eles realizaram naquela semana.

Como isso, sem dúvida, inundará Doge com centenas de milhares desses tipos de e -mails, Musk confia na inteligência artificial para processar respostas e ajudar a determinar quem deve permanecer empregado. Parte desse plano também é substituir muitos trabalhadores do governo por sistemas de IA.

Ainda não está claro como são qualquer um desses sistemas de IA ou como eles funcionam – algo que os democratas do Congresso dos Estados Unidos estão exigindo ser preenchido -, mas os especialistas alertam que a utilização da IA ​​no governo federal sem testes e verificação robustos dessas ferramentas podem ter consequências desastrosas.

“Para usar as ferramentas de IA com responsabilidade, elas precisam ser projetadas com um propósito específico em mente. Eles precisam ser testados e validados. Não está claro se isso está sendo feito aqui ”, diz Cary Coglianese, professor de direito e ciência política da Universidade da Pensilvânia.

Coglianese diz que, se a IA estiver sendo usada para tomar decisões sobre quem deve ser rescindido de seu trabalho, ele seria “muito cético” dessa abordagem. Ele diz que há um potencial muito real para que os erros sejam cometidos, para que a IA seja tendenciosa e para outros problemas em potencial.

“É uma má ideia. Não sabemos nada sobre como uma IA tomaria essas decisões [including how it was trained and the underlying algorithms]os dados nos quais essas decisões se baseariam, ou por que devemos acreditar que são confiáveis ​​”, diz Shobita Parthasarathy, professor de políticas públicas da Universidade de Michigan.

Essas preocupações não parecem estar impedindo o atual governo, especialmente com Musk – um empresário bilionário e consultor próximo do presidente dos EUA, Donald Trump – liderando a acusação por esses esforços.

O Departamento de Estado dos EUA, por exemplo, está planejando usar a IA para digitalizar as contas de mídia social dos estrangeiros para identificar qualquer pessoa que possa ser um defensor do Hamas, em um esforço para revogar seus vistos. Até agora, o governo dos EUA não foi transparente sobre como esses tipos de sistemas podem funcionar.

Danos não detectados

“O governo Trump está realmente interessado em buscar a IA a todo custo, e eu gostaria de ver um uso justo, justo e equitativo da IA”, diz Hilke Schellmann, professor de jornalismo da Universidade de Nova York e especialista em inteligência artificial. “Pode haver muitos danos que não são detectados.”

Especialistas da IA ​​dizem que existem muitas maneiras pelas quais o uso do governo da IA ​​pode dar errado, e é por isso que precisa ser adotado com cuidado e consciência. Coglianese diz que governos em todo o mundo, incluindo a Holanda e o Reino Unido, tiveram problemas com a IA mal executada que pode cometer erros ou mostrar preconceitos e, como resultado, negaram incorretamente os benefícios de bem -estar dos residentes que precisam, por exemplo.

Nos EUA, o estado de Michigan teve um problema com a IA que foi usada para encontrar fraude em seu sistema de desemprego, quando identificou incorretamente milhares de casos de suposta fraude. Muitos desses benefícios negados foram tratados com severidade, incluindo ser atingido por múltiplos penalidades e acusado de fraude. As pessoas foram presas e até solicitaram falência. Após um período de cinco anos, o estado admitiu que o sistema estava com defeito e, um ano depois, acabou devolvendo US $ 21 milhões aos moradores acusados ​​erroneamente de fraude.

“Na maioria das vezes, os funcionários que compram e implantam essas tecnologias sabem pouco sobre como funcionam, seus preconceitos e limitações e erros”, diz Parthasarathy. “Como as comunidades de baixa renda e de outra forma marginalizadas tendem a ter mais contato com os governos através de serviços sociais [such as unemployment benefits, foster care, law enforcement]eles tendem a ser mais afetados pela IA problemática. ”

A IA também causou problemas no governo quando foi usada nos tribunais para determinar coisas como a elegibilidade da liberdade condicional de alguém ou nos departamentos de polícia quando é usado para tentar prever onde é provável que o crime ocorra.

Schellmann diz que a IA usada pelos departamentos de polícia é tipicamente treinada em dados históricos desses departamentos, e isso pode fazer com que a IA recomenda áreas de policiamento excessivo que há muito são superpolicadas, especialmente comunidades de cor.

Ai não entende nada

Um dos problemas de potencialmente usar a IA para substituir os trabalhadores do governo federal é que existem tantos tipos diferentes de empregos no governo que exigem habilidades e conhecimentos específicos. Uma pessoa de TI no Departamento de Justiça pode ter um trabalho muito diferente de um do Departamento de Agricultura, por exemplo, mesmo que eles tenham o mesmo cargo. Um programa de IA, portanto, teria que ser complexo e altamente treinado para fazer um trabalho medíocre em substituir um trabalhador humano.

“Eu não acho que você pode cortar aleatoriamente o emprego das pessoas e então [replace them with any AI]”Diz Coglianese. “As tarefas que essas pessoas estavam executando geralmente são altamente especializadas e específicas”.

Schellmann diz que você pode usar a IA para fazer partes do trabalho de alguém que podem ser previsíveis ou repetitivas, mas você não pode substituir completamente alguém. Teoricamente, isso seria possível se você passar anos desenvolvendo as ferramentas de IA certas para fazer muitos tipos diferentes de empregos – uma tarefa muito difícil e não o que o governo parece estar fazendo atualmente.

“Esses trabalhadores têm experiência real e uma compreensão diferenciada dos problemas, o que a IA não possui. A IA não, de fato, ‘entende’ nada ”, diz Parthasarathy. “É um uso de métodos computacionais para encontrar padrões, com base em dados históricos. E, portanto, é provável que tenha utilidade limitada e até reforça os preconceitos históricos. ”

A administração do ex -presidente dos EUA, Joe Biden, emitiu uma ordem executiva em 2023 focada no uso responsável da IA ​​no governo e em como a IA seria testada e verificada, mas essa ordem foi rescindida pelo governo Trump em janeiro. Schellmann diz que isso tornou menos provável que a IA seja usada com responsabilidade no governo ou que os pesquisadores possam entender como a IA está sendo utilizada.

Tudo isso dito, se a IA for desenvolvida com responsabilidade, pode ser muito útil. A IA pode automatizar tarefas repetitivas para que os trabalhadores possam se concentrar em coisas mais importantes ou ajudar os trabalhadores a resolver problemas com os quais eles enfrentam. Mas precisa ter tempo para ser implantado da maneira correta.

“Isso não quer dizer que não poderíamos usar as ferramentas de IA com sabedoria”, diz Coglianese. “Mas os governos se desviam quando tentam se apressar e fazer as coisas rapidamente, sem informações públicas adequadas e validação e verificação completas de como o algoritmo está realmente funcionando”.

LEAVE A REPLY

Please enter your comment!
Please enter your name here