Não, isso não é uma piada do Dia da Mentira: a OpenAI começou a bloquear geograficamente o acesso ao seu chatbot AI generativo, ChatGPT, na Itália.

A mudança segue uma ordem da autoridade local de proteção de dados na sexta-feira que deve parar de processar os dados dos italianos para o serviço ChatGPT.

En una declaración que aparece en línea para los usuarios con una dirección IP italiana que intentan acceder a ChatGPT, OpenAI escribe que “lamenta” informar a los usuarios que ha deshabilitado el acceso a los usuarios en Italia, a “solicitud” de la autoridad de proteção de dados. que é conhecido como o garantia.

Ele também diz que emitirá reembolsos para todos os usuários na Itália que compraram o serviço de assinatura ChatGPT Plus no mês passado, observando também que está “interrompendo temporariamente” as renovações de assinatura para que os usuários não sejam cobrados enquanto o serviço estiver suspenso.

A OpenAI parece estar aplicando um bloqueio geográfico simples neste ponto, o que significa que usar uma VPN para mudar para um endereço IP não italiano oferece uma solução fácil para o bloqueio. Embora uma conta ChatGPT tenha sido originalmente registrada na Itália, ela pode não estar mais acessível e os usuários que desejam contornar o bloqueio precisarão criar uma nova conta com um endereço IP não italiano.

Declaração OpenAI para usuários que tentam acessar o ChatGPT de um endereço IP italiano (captura de tela: Natasha Lomas/TechCrunch)

na sexta-feira o garantia anunciou que abriu uma investigação no ChatGPT por supostas violações do Regulamento Geral de Proteção de Dados da União Europeia (GDPR), dizendo estar preocupado que a OpenAI tenha processado ilegalmente os dados dos italianos.

A OpenAI não parece ter informado a ninguém cujos dados online encontrou e usou para treinar a tecnologia, como por exemplo, extraindo informações de fóruns na Internet. Ele também não foi totalmente aberto sobre os dados que está processando, certamente não para a versão mais recente de seu modelo, GPT-4. E embora os dados de treinamento que você usou possam ter sido públicos (no sentido de que foram publicados online), o GDPR ainda contém princípios de transparência, sugerindo que tanto os usuários quanto as pessoas cujos dados eles coletaram deveriam ter sido informados.

Em seu pronunciamento ontem, o garantia também apontou a falta de um sistema para impedir que menores de idade acessem a tecnologia, levantando uma bandeira de segurança infantil, lembrando que não há recurso de verificação de idade para impedir o acesso indevido, por exemplo.

Além disso, o regulador levantou preocupações sobre a precisão das informações fornecidas pelo chatbot.

Sabe-se que o ChatGPT e outros chatbots de IA generativos às vezes produzem informações erradas sobre pessoas nomeadas, uma falha que os fabricantes de IA chamam de “incompreensível”. Isso parece problemático na UE, pois o GDPR concede aos indivíduos vários direitos sobre suas informações, incluindo o direito de corrigir informações incorretas. E, atualmente, não está claro se a OpenAI possui um sistema em que os usuários possam pedir ao chatbot para parar de mentir sobre eles.

A empresa sediada em San Francisco ainda não respondeu ao nosso pedido de comentário sobre o fiador investigação. Mas em sua declaração pública para usuários bloqueados geograficamente na Itália, afirma: “Estamos comprometidos em proteger a privacidade das pessoas e acreditamos que oferecemos o ChatGPT em conformidade com o GDPR e outras leis de privacidade”.

“Vamos nos comprometer com garantia com o objetivo de restaurar seu acesso o mais rápido possível”, ele também escreve, acrescentando: “Muitos de vocês nos disseram que acham o ChatGPT útil para tarefas diárias e esperamos que ele esteja disponível novamente em breve”.

Apesar de estar otimista no final da declaração, não está claro como a OpenAI pode resolver os problemas de conformidade levantados pelo Garantia – dado o amplo escopo das preocupações do GDPR, ele surge quando você inicia uma investigação mais profunda.

A regulamentação pan-europeia exige a proteção de dados por design e por padrão, o que significa que os processos e princípios com foco na privacidade devem ser incorporados a um sistema que processa os dados das pessoas desde o início. Também conhecido como a abordagem oposta para obter dados e pedir desculpas mais tarde.

Enquanto isso, as penalidades por violações confirmadas do GDPR podem chegar a 4% do faturamento global anual de um processador de dados (ou € 20 milhões, o que for maior).

Além disso, como a OpenAI não possui um estabelecimento principal na UE, qualquer uma das autoridades de proteção de dados do bloco tem o poder de regular o ChatGPT, o que significa que as autoridades de todos os outros países membros da UE podem optar por intervir e investigar e emitir tickets para qualquer violações que encontram. (em um tempo relativamente curto, já que cada um agiria apenas no seu patch). Portanto, você está enfrentando o nível mais alto de exposição ao GDPR e não está preparado para jogar o jogo de compra de fóruns que outros gigantes da tecnologia usaram para atrasar a aplicação da privacidade na Europa.