
Chegou o momento tão esperado. Foto: Depositphotos.
O ChatGPT foi usado por pesquisadores da empresa de segurança SPLX para resolver CAPTCHAs, aqueles testes que muitos sites fazem para saber se um usuário querendo fazer algo é humano, ou um robô.
Em uso desde os anos 2000, o CAPTCHAs é muito usado: quase 10% dos sites na Internet tem o sistema implementado.
Justamente por isso, plataformas de inteligência artificial o ChatGPT não aceitam prompts que peçam para responder um, o que poderia ter consequências muito negativas para a segurança na Internet.
Os pesquisadores da SPLX tiveram que usar uma dose de lábia (tudo explicado em detalhes neste post), um mecanismo do qual nem mesmo uma IA pode escapar.
A operação envolveu usar um prompt sofisticado que fez o ChatGPT acreditar que não estava violando seu código de conduta ao resolver alguns CAPTCHAs.
Segundo o post da SPLX, o ChatGPT resolveu melhor CAPTCHAs baseados em lógica e teve mais problemas com os baseados em imagens, ou alguns que requerem ao usuário arrastar ou rotacionar imagens.
De acordo com os pesquisadores, é a primeira vez que um modelo de linguagem consegue fazer algo assim, o que “levanta questões sérias sobre se os CAPTCHAs ainda são um recurso de segurança confiável”.