ChatGPT é banido na Itália e OpenAI notificada por órgão regulador do país

 ChatGPT é banido na Itália e OpenAI notificada por órgão regulador do país
- Anúncios -
Conteúdo Continua após Anúncios

O ChatGPT é um chatbot baseado em inteligência artificial desenvolvido pela empresa OpenAI. Ele permite que os usuários conversem com um robô que pode gerar respostas coerentes e personalizadas, usando um grande banco de dados de textos da internet.

No entanto, o ChatGPT foi banido na Itália em 31 de março de 2023, por decisão da Agência de Proteção de Dados da Itália (GPDP), que alegou que o serviço violava as regras de privacidade dos usuários.

Segundo a GPDP, o serviço não tinha uma base legal para coletar e armazenar dados pessoais dos usuários, como nome, e-mail, endereço e informações bancárias. Além disso, o ChatGPT não conseguia verificar a idade dos usuários, expondo os menores a respostas inadequadas para o seu desenvolvimento.

- Anúncios -
Conteúdo Continua após Anúncios
Site do site ChatGPT ainda pode ser acessado em outros países. | Imagem: Reprodução.

A GPDP também citou uma falha de segurança ocorrida em 20 de março de 2023, que vazou dados de 1,2% dos usuários da versão premium do serviço.

A OpenAI foi notificada pela GPDP e tem 20 dias para se adequar às exigências da lei italiana, sob pena de uma multa de até 20 milhões de euros ou 4% do seu faturamento anual. A empresa ainda não se pronunciou sobre o caso.

O banimento da IA na Itália é a primeira ação de um país ocidental para impedir o funcionamento de uma ferramenta de inteligência artificial por questões de privacidade e segurança. A decisão, no entanto, não afeta rivais como Bing AI, Bard (Google) ou a opção lançada pelo Baidu.

Especialistas alertam para riscos da IA

Um grupo de mais de mil especialistas em inteligência artificial (IA) e executivos da indústria de tecnologia assinou uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas de IA mais poderosos do que o GPT-4, um dos mais avançados do mundo.

A carta, publicada pelo Instituto Future of Life (FLI), uma organização sem fins lucrativos que conta com o apoio do empresário Elon Musk, alerta para os potenciais riscos que esses sistemas podem representar para a sociedade e a humanidade, como a geração de desinformação, a substituição de empregos e a criação de mentes não humanas que possam nos superar.

Os signatários da carta argumentam que os laboratórios que trabalham com essa tecnologia estão em “uma corrida fora de controle para desenvolver e implementar mentes digitais cada vez mais poderosas que ninguém, nem mesmo seus criadores, pode entender, prever ou controlar com segurança”. Eles pedem que as empresas que desenvolvem esse tipo de programa “pausem imediatamente, por pelo menos seis meses, o treinamento de sistemas de inteligência artificial mais poderosos que o GPT-4” e que os governos intervenham se isso não for possível.

- Anúncios -
Conteúdo Continua após Anúncios

Lucas Ribeiro

Jornalista há quatro anos, trabalho com revisão de textos e elaboração de pautas sobre telefonia móvel/telecomunicações no geral. Como lema, compartilho a ideia de Álvaro Borba, que diz: “Não importa o que eu acho, importa o que eu sei, e o que sei são os fatos”.

Postagem relacionada

Importante: Este site faz uso de cookies que podem conter informações de rastreamento sobre os visitantes.