NotíciasTecnologia

OpenAI preocupada por ChatGPT-4 mentir para terminar tarefa

OpenAI preocupada por ChatGPT-4 mentir para terminar tarefa

Um relatório da OpenAI revelou “temores éticos” relacionados aos comportamentos de “alto risco” do ChatGPT-4, a nova versão do bot alimentado por inteligência artificial generativa.

O relatório detalha que a ferramenta usou seus “poderes” e mentiu para completar uma tarefa que lhe foi pedida em um teste de ética.

Embora alguns possam interpretar isso como o primeiro passo de uma tentativa maquiavélica dos robôs para dominar o mundo, a realidade é um pouco menos dramática.

O ChatGPT-4 inventou uma mentira para completar um teste de ética sem a ajuda de um ser humano.

O relatório de 100 páginas também destacou as capacidades do novo modelo, que agora consegue entender cenários mais complexos e ficar entre os 10% dos humanos com as notas mais altas em exames acadêmicos.

No entanto, o relatório também aponta capacidades preocupantes, como a habilidade de criar planos de longa data e agir em cima deles, além de comportamentos cada vez mais “autoritários”.

A OpenAI afirma estar interessada em avaliar os comportamentos de busca pelo poder do ChatGPT-4, dada a alta possibilidade de representar riscos.