Em meio ao frenesi que o ChatGPT 4 está causando, o Europol alerta para “uma ampla gama de casos de uso criminoso” com a ferramenta de inteligência artificial (IA). Nesse sentido, a agência alertou especialmente sobre fraudes, roubo de identidade, engenharia social, desinformação e crimes cibernéticos. A esse respeito, explicaram que o sistema “facilita atividades criminosas”então ele conduziu “workshops” para estudar o “lado negro” desse tipo de IA.

“Workshops envolvendo especialistas no assunto de toda a gama de conhecimentos da Europol identificaram uma ampla gama de casos de uso criminoso no GPT-3.5. Em alguns casos, as respostas prejudiciais do GPT-4 foram ainda mais avançadas”, detalhou a agência de polícia da União Europeia . Nesta linha, o relatório elaborado pela Europol GPT conversa. O impacto de modelos de linguagem estendida na aplicação da lei detectar que a evolução desses sistemas “oferece uma perspectiva sombria” sobre a potencial exploração criminosa.

Elon Musk e vários especialistas pedem para parar os avanços da inteligência artificial e do ChatGPT 4

Em relação a modo de operação de “potenciais criminosos”, o órgão de segurança explicou que o ChatGPT “pode ​​acelerar significativamente” o processo de investigação de qualquer crime em particular, pois oferece informações que podem ser exploradas em etapas posteriores. “Como tal, o ChatGPT pode ser usado para obter informações sobre um grande número de áreas de crime em potencial sem conhecimentodesde como entrar em uma casa até terrorismo, cibercrime e abuso sexual”, afirmaram.

Eles acrescentaram: “Embora todas as informações fornecidas pelo ChatGPT estejam disponíveis gratuitamente na Internet, a capacidade de usar o modelo para fornecer etapas específicas por meio de perguntas contextuais torna significativamente mais fácil para atores maliciosos entender melhor o assunto e posteriormente cometer vários tipos de crimes.

Fraude, desinformação e cibercrime, as “áreas de preocupação” para os especialistas da Europol

A agência identificou três “áreas de preocupação” sobre o uso malicioso de sistemas como o ChatGPT: fraude e engenharia social, desinformação e cibercrime. No entanto, eles reconheceram que pode haver mais usos criminosos de interesse porque uma análise “abrangente” não foi feita. “Casos de uso identificados que surgiram dos workshops da Europol conduzidos com seus especialistas não são de forma alguma exaustivas. Em vez disso, o objetivo é dar uma ideia de quão diversas e potencialmente perigosas ferramentas como o ChatGPT podem estar nas mãos de agentes mal-intencionados.”

Dentro da borda de fraude e engenharia socialA Europol descobriu que a capacidade do ChatGPT de escrever textos “muito realistas” o torna uma ferramenta útil para roubo de identidade. Nesse sentido, eles explicaram que a capacidade desses sistemas possibilita a personificação do estilo de fala de pessoas ou grupos específicos, o que facilitaria a realização de golpes online. “Antes era mais fácil detectar fraudes roubo de identidade básicos devido a erros gramaticais e ortográficos óbvios. Agora é possível personificar uma organização ou indivíduo de maneira altamente realista”, disseram eles no relatório.

E acrescentaram: “Com a ajuda de extensos modelos de linguagem, esses tipos de roubo de identidade e fraude on-line pode ser criado mais rápidomais autenticamente e em uma escala significativamente maior.

A Europol classificou como “áreas de preocupação” fraude e engenharia social, desinformação e cibercrime.

Somado a isso, eles indicaram que as habilidades do programa podem ser usadas para crimes como terrorismo, propaganda e desinformação graças à sua capacidade de coletar informações. “Como tal, o modelo pode ser usado para coletar mais informações que possam facilitar atividades terroristas, como terrorismo financeiro ou compartilhamento de arquivos anônimos”, disse ele.

Enquanto à desinformação, a Europol chamou o ChatGPT de “modelo ideal” para fins de propaganda e notícias falsas. Nesse sentido, eles explicaram que os usuários são capazes de gerar e distribuir mensagens “refletindo uma narrativa específica com pouco esforço”. “Por exemplo, o ChatGPT pode ser usado para gerar propaganda online em nome de outros atores para promover ou defender certos pontos de vista que foram desacreditados como desinformação ou notícias falsas”, disseram.

ChatGPT: o que é a nova Inteligência Artificial de que o mundo fala

Além de gerar mensagens que parecem vir de humanos, outra das capacidades do ChatGPT que fez soar o alarme na Europol é a capacidade de criar códigos em diferentes linguagens de programação em apenas alguns minutos. Segundo a agência, isso tem um “impacto significativo” no cibercrime porque permite que alguém sem conhecimento técnico ataque o sistema de uma pessoa. Nesse sentido, alertaram que o sistema de criação programas maliciosos logo após seu lançamento. “Para um potencial criminoso com pouco conhecimento técnico, este é um recurso inestimável para produzir código malicioso“, afirmaram.

“À medida que a tecnologia avança e novos modelos se tornam disponíveis, será cada vez mais importante para a aplicação da lei ficar à frente desses desenvolvimentos para antecipar e prevenir abusos, bem como para garantir que os benefícios potenciais possam ser colhidos”, concluiu o relatório.

mb/ds

você pode gostar