Desenvolvido pela OpenAI, o ChatGPT foi lançado em novembro de 2022 e rapidamente se tornou uma sensação na Internet, pois os usuários migraram para o site criado para o chatbot para gerar ensaios, memes, e-mails, código de programação e todos os tipos de texto.

Agora, a Europol, agência de aplicação da lei da União Europeia, detalhou como o modelo pode ser mal utilizado para fins mais nefastos. Na verdade, as pessoas já estão usando para realizar atividades ilegais, diz a polícia.

“O impacto que esses tipos de modelos podem ter no trabalho de aplicação da lei já pode ser antecipado”, afirmou a Europol em seu relatório. “Os criminosos são normalmente rápidos para explorar novas tecnologias e rapidamente violados com exploits criminosos específicos, que forneceram os primeiros exemplos práticos apenas algumas semanas após o lançamento público do ChatGPT.”

Embora o ChatGPT possa “se recusar” a honrar as solicitações recebidas que são potencialmente prejudiciais, os usuários encontraram maneiras de contornar o sistema de filtragem de conteúdo do OpenAI. Alguns o fizeram cuspir instruções sobre como criar uma bomba caseira ou crack, por exemplo.

“Se um criminoso em potencial não souber nada sobre uma área específica de crime, o ChatGPT pode acelerar significativamente o processo de investigação, oferecendo informações importantes que podem ser exploradas em etapas posteriores. Como tal, o ChatGPT pode ser usado para aprender sobre um grande número de áreas criminais potenciais sem conhecimento prévio, desde invasão de residências até terrorismo ou cibercrime”, convidou a Europol.

A agência admitiu que todas essas informações já estão disponíveis publicamente na Internet, mas o modelo facilita a localização e o entendimento de como realizar casos específicos.

A Europol também destaca que o modelo pode ser explorado para se passar por alvos, facilitar fraudes e phishing ou produzir propaganda e desinformação para apoiar o terrorismo.

A capacidade do ChatGPT de gerar código, incluindo código malicioso, aumenta o risco de crimes cibernéticos ao reduzir as habilidades técnicas necessárias para criar malware.

“Para um potencial criminoso com pouco conhecimento técnico, este é um recurso inestimável. Ao mesmo tempo, um usuário mais avançado pode explorar esses aprimoramentos para refinar ainda mais ou até mesmo automatizar o sofisticado modus operandi do cibercriminoso”, diz o relatório.

Modelos de linguagem longa (LLMs) não são sofisticados e ainda estão em sua infância, mas estão melhorando rapidamente à medida que as empresas de tecnologia investem recursos no desenvolvimento da tecnologia. A OpenAI já lançou o GPT-4, um sistema mais poderoso, e esses modelos estão sendo cada vez mais integrados aos produtos.

A Europol disse que, à medida que mais empresas implementam recursos e serviços de IA, novas formas de usar a tecnologia para atividades ilegais serão abertas. “Sistemas multimodais de inteligência artificial, que combinam chatbots conversacionais com sistemas que podem produzir mídia sintética, como deepfakes altamente convincentes, ou incluir habilidades sensoriais, como visão e audição”, sugeriu o relatório da organização policial.

Versões clandestinas de modelos de linguagem sem filtros de conteúdo e perturbações de dados prejudiciais podem permanecer na dark web, por exemplo, de acordo com o relatório.

“Finalmente, há incertezas sobre como os serviços LLM podem processar os dados do usuário no futuro: as conversas serão armazenadas e as informações pessoais confidenciais potencialmente expostas a terceiros não autorizados? E se os usuários gerarem conteúdo prejudicial, isso deve ser relatado às autoridades policiais?”, questionou a Europol.

Postado originalmente em O economista


EUROPOL | Competências que podem ser aplicadas em vários contextos

“Em resposta à crescente atenção pública dada ao ChatGPT, o Europol Innovation Lab organizou uma série de workshops com especialistas no assunto de toda a organização para explorar como os LLMs como o ChatGPT podem ser abusados ​​por criminosos e como eles podem ajudar os investigadores em suas atividades diárias. trabalho”, disse a organização policial ao explicar as razões desta denúncia.

Aqui estão alguns outros parágrafos do relatório:

  • “O modelo tem uma série de limitações importantes que devem ser levadas em consideração. O mais óbvio diz respeito aos dados que foram experimentados: embora as atualizações sejam feitas de forma constante, a grande maioria dos dados de treinamento do ChatGPT data de setembro de 2021. As respostas geradas a partir desses dados não incluem referências para entender onde certas informações foi retirado e pode ser tendencioso. Além disso, o ChatGPT é excelente em fornecer respostas que parecem muito plausíveis, mas muitas vezes são imprecisas ou erradas.”
  • “A maior limitação do ChatGPT é auto-imposta. Como parte da política de moderação de conteúdo do modelo, o ChatGPT não responde a perguntas classificadas como prejudiciais ou tendenciosas. Esses mecanismos de segurança estão sendo atualizados constantemente, mas ainda podem ser contornados em alguns casos com a engenharia oportuna correta.”
  • O ChatGPT é excelente em fornecer ao usuário informações prontas para uso em resposta a uma ampla variedade de solicitações. Se um criminoso em potencial não souber nada sobre uma área específica de crime, o ChatGPT pode acelerar significativamente o processo de investigação, oferecendo informações importantes que podem ser exploradas em etapas posteriores.”
  • “Os recursos do ChatGPT se prestam a vários casos de abuso em potencial na área de terrorismo, propaganda e desinformação. Como tal, o modelo pode ser usado para coletar informações que possam facilitar atividades terroristas, como financiamento ou compartilhamento anônimo de arquivos.”

você pode gostar