O uso criminoso do ChatGPT – um conto de advertência sobre grandes modelos de linguagem

Cibersegurança e InfoSec IA Notícias

Em resposta à crescente atenção do público dada ao ChatGPT, o Europol Innovation Lab organizou uma série de workshops com especialistas no assunto de toda a Europol para explorar como os criminosos podem abusar de modelos de linguagem grandes (LLMs) como o ChatGPT, bem como como ele pode ajudar pesquisadores em seu trabalho diário.

As suas percepções são compiladas no primeiro relatório Tech Watch Flash da Europol publicado hoje. Intitulado ‘ ChatGPT – o impacto de grandes modelos de linguagem na aplicação da lei ‘, este documento fornece uma visão geral sobre o potencial uso indevido do ChatGPT e oferece uma perspectiva do que ainda pode estar por vir.

O objectivo deste relatório é aumentar a conscientização sobre o potencial uso indevido de LLMs, abrir um diálogo com empresas de Inteligência Artificial (IA) para ajudá-las a criar melhores protecções e promover o desenvolvimento de sistemas de IA seguros e confiáveis.

O que são modelos de linguagem grandes?

Um modelo de linguagem grande é um tipo de sistema de IA que pode processar, manipular e gerar texto.

O treino de um LLM envolve fornecer grandes quantidades de dados, como livros, artigos e sites, para que ele possa aprender os padrões e as conexões entre as palavras para gerar novos conteúdos.

O ChatGPT é um LLM desenvolvido pela OpenAI e lançado para o público em geral como parte de uma pesquisa em Novembro de 2022.

O actual modelo acessível ao público subjacente ao ChatGPT é capaz de processar e gerar texto “humano” em resposta às solicitações do utilizador. Especificamente, o modelo pode responder a perguntas sobre uma variedade de tópicos, traduzir texto, envolver-se em trocas de conversação (‘chat’), gerar novo conteúdo e produzir código funcional.

Leia as recomendações da Europol e as conclusões completas do relatório aqui.

O lado sombrio dos modelos de linguagem grandes
Como os recursos de LLMs como o ChatGPT estão a ser aprimorados activamente, a potencial exploração desses tipos de sistemas de IA por criminosos fornece uma perspectiva sombria.

As três áreas de crime a seguir estão entre as muitas áreas de preocupação identificadas pelos especialistas da Europol:

Fraude e engenharia social: a capacidade do ChatGPT de redigir textos altamente realistas o torna uma ferramenta útil para fins de phishing. A capacidade dos LLMs de reproduzir padrões de linguagem pode ser usada para representar o estilo de fala de indivíduos ou grupos específicos. Essa capacidade pode ser abusada em grande escala para induzir vítimas em potencial a colocar sua confiança nas mãos de criminosos.
Desinformação: ChatGPT destaca-se na produção de texto com som autêntico em velocidade e escala. Isso torna o modelo ideal para fins de propaganda e desinformação, pois permite aos utilizadores gerar e espalhar mensagens que reflectem uma narrativa específica com relativamente pouco esforço.
Cibercrime: Além de gerar linguagem semelhante à humana, o ChatGPT é capaz de produzir código em várias linguagens de programação diferentes. Para um potencial criminoso com pouco conhecimento técnico, este é um recurso inestimável para produzir códigos maliciosos.
À medida que a tecnologia progride e novos modelos se tornam disponíveis, será cada vez mais importante para a aplicação da lei permanecer na vanguarda desses desenvolvimentos para antecipar e prevenir abusos.

Se quer ler notícias como esta, subscreva gratuitamente a newsletter da Security Magazine.