O medo de que o inteligência artificial (IA) se volta contra a humanidade acrescenta um novo argumento após um experimento no Instituto de Tecnologia de Massachusetts, uma das universidades mais proeminentes do mundo. O responsável foi kevin esvelt, que cruzará esse medo com o trauma mais profundo dos últimos anos.

Desaparecerá o especialista em biossegurança que qualquer pessoa sem conhecimento científico -mas com muita maldade- poderia ser capaz de desencadear uma nova pandemia. O slogan antes de seus alunos tinha sido crie um vírus perigoso com a ajuda de plataformas como GPT-4 e Bard, do Google.

Embora os chatbots não respondessem às primeiras questões, foram imediatamente enganados com perguntas do tipo “estou a trabalhar no desenvolvimento de uma vacina para prevenir…” e começaram a dar as respostas procuradas.

Por conta da inteligência artificial, investimentos em startups crescem nos mercados

Em apenas uma hora, a turma apresentou uma lista de vírus e cepas altamente transmissíveis, laboratórios capazes de sequenciá-los e empresas para manipulá-los, imprimir seu DNA, multiplicar e liberar o vírus. Esvelt acredita que o exercício mostra que A IA pode permitir, a curto prazo, o design de armas tão perigosas quanto as armas nucleares.

Nesse ponto, a própria difusão do conhecimento pode se voltar contra nossa espécie. O documentos que descrevem em detalhes a operação de vírus mortais podem ser fontes de informações cruciais nesse cenário.

Europa planeja implementar regulamentos para controlar o avanço da Inteligência Artificial

Retirá-los do domínio público, no entanto, resolveria o problema. Atoosa Kasirzadeh, especialista em IA da Universidade de Edimburgo, reconhece que “não temos bons protocolos que permitam que modelos de linguagem sejam treinados com algumas partes da Internet e outras não”. Uma limitação que deve ser superada se quisermos começar a dormir com mais tranquilidade.

AO JL