OpenAI preocupada por ChatGPT-4 mentir para terminar tarefa
OpenAI preocupada por ChatGPT-4 mentir para terminar tarefa
Um relatório da OpenAI revelou “temores éticos” relacionados aos comportamentos de “alto risco” do ChatGPT-4, a nova versão do bot alimentado por inteligência artificial generativa.
O relatório detalha que a ferramenta usou seus “poderes” e mentiu para completar uma tarefa que lhe foi pedida em um teste de ética.
Embora alguns possam interpretar isso como o primeiro passo de uma tentativa maquiavélica dos robôs para dominar o mundo, a realidade é um pouco menos dramática.
O ChatGPT-4 inventou uma mentira para completar um teste de ética sem a ajuda de um ser humano.
O relatório de 100 páginas também destacou as capacidades do novo modelo, que agora consegue entender cenários mais complexos e ficar entre os 10% dos humanos com as notas mais altas em exames acadêmicos.
No entanto, o relatório também aponta capacidades preocupantes, como a habilidade de criar planos de longa data e agir em cima deles, além de comportamentos cada vez mais “autoritários”.
A OpenAI afirma estar interessada em avaliar os comportamentos de busca pelo poder do ChatGPT-4, dada a alta possibilidade de representar riscos.