23 de agosto, de 2024 | 07:59

Bots de IA podem invadir a internet, alerta grupo

Para evitar a invasão da IA, pesquisadores sugerem "credenciais de personalidade" que atestariam a humanidade das pessoas; entenda

Se os métodos para distinguir humanos de robôs não forem aprimorados, bots de inteligência artificial podem invadir a internet. Esse é o alerta dado em um artigo recente, assinado por um grupo de 32 pesquisadores, incluindo membros da OpenAI (desenvolvedora do ChatGPT), Microsoft e Universidade Harvard¹.

O artigo, ainda não revisado por pares, defende um sistema de "credenciais de personalidade", no qual as pessoas provariam off-line que existem fisicamente. Ao fazerem isso, receberiam credenciais criptografadas para atividades on-line, preservando seu anonimato¹.

IA está cada vez mais capaz de burlar sistemas de verificação



Os autores argumentam que os sistemas existentes para provar a humanidade de alguém, como exigir que os usuários enviem uma selfie ou resolvam um quebra-cabeça CAPTCHA, são cada vez mais "inadequados contra IA sofisticada". No futuro próximo, até mesmo chamadas de vídeo podem ser insuficientes. Em um bate-papo, não será possível garantir se a pessoa é quem afirma ser, outra pessoa disfarçando-se com IA ou "até mesmo uma simulação completa de IA de uma pessoa real ou fictícia", acrescentam os autores¹.

No entanto, sistemas rigorosos de verificação de identidade que vinculam a identidade das pessoas à sua atividade online podem comprometer a privacidade dos usuários e seus direitos à liberdade de expressão. Por isso, os pesquisadores propõem as "credenciais de personalidade", que permitiriam que as pessoas interajam online anonimamente sem que suas atividades sejam rastreadas. (Com informações do Olhar Digital e agências)

O que a IA responder sobre o que humanos devem fazer para evitar serem dominados por ela?



Para evitar que a inteligência artificial (IA) domine os humanos, é importante adotar várias estratégias e práticas. Sugestões:

Regulamentação e Políticas: Desenvolver e implementar regulamentações que garantam o uso ético e seguro da IA. Isso inclui leis que protejam a privacidade e a segurança dos dados.

Transparência e Responsabilidade: Assegurar que os sistemas de IA sejam transparentes e que haja responsabilidade em suas decisões. Isso pode ser feito através de auditorias regulares e da exigência de explicações claras sobre como as decisões são tomadas.

Educação e Conscientização: Educar o público sobre os benefícios e riscos da IA. A conscientização pode ajudar as pessoas a entenderem melhor como a IA funciona e como ela pode ser usada de maneira segura.

Desenvolvimento Ético: Incorporar princípios éticos no desenvolvimento de IA. Isso inclui evitar preconceitos nos dados de treinamento e garantir que os sistemas de IA sejam justos e imparciais.

Segurança Cibernética: Fortalecer a segurança cibernética para proteger contra o uso malicioso da IA. Isso inclui o desenvolvimento de sistemas de defesa robustos que possam se adaptar e responder a ameaças.

Colaboração Internacional: Promover a colaboração entre países para compartilhar melhores práticas e desenvolver normas globais para o uso seguro da IA.
Essas medidas podem ajudar a garantir que a IA seja usada de maneira que beneficie a sociedade, minimizando os riscos de dominação ou uso indevido.
Encontrou um erro, ou quer sugerir uma notícia? Fale com o editor: [email protected]
MAK SOLUTIONS MAK 02 - 728-90

Comentários

Aviso - Os comentários não representam a opinião do Portal Diário do Aço e são de responsabilidade de seus autores. Não serão aprovados comentários que violem a lei, a moral e os bons costumes. O Diário do Aço modera todas as mensagens e resguarda o direito de reprovar textos ofensivos que não respeitem os critérios estabelecidos.

Envie seu Comentário