Os humanos eventualmente precisarão “desacelerar essa tecnologia”, alertou Sam Altman
RT – A inteligência artificial tem o potencial de substituir trabalhadores, espalhar “desinformação” e permitir ataques cibernéticos, alertou Sam Altman, CEO da OpenAI. A versão mais recente do programa GPT da OpenAI pode superar a maioria dos humanos em testes simulados.
“Temos que ter cuidado aqui”, disse Altman à ABC News na quinta-feira, dois dias depois que sua empresa revelou seu mais recente modelo de linguagem, apelidado de GPT-4. De acordo com a OpenAI, o modelo “exibe desempenho de nível humano em vários benchmarks profissionais e acadêmicos” e é capaz de passar em um exame de barra simulado dos EUA com uma pontuação máxima de 10%, enquanto se apresenta no 93º percentil em um exame de leitura SAT e em o percentil 89 em um teste de matemática SAT.
“Estou particularmente preocupado que esses modelos possam ser usados para desinformação em larga escala”, disse Altman. “Agora que eles estão melhorando na escrita de códigos de computador, [eles] podem ser usados para ataques cibernéticos ofensivos.”
“Acho que as pessoas deveriam ficar felizes por termos um pouco de medo disso”, acrescentou Altman, antes de explicar que sua empresa está trabalhando para colocar “limites de segurança” em sua criação.
No momento, o GPT-4 está disponível para um número limitado de usuários em caráter experimental. Os primeiros relatórios sugerem que o modelo é significativamente mais poderoso que seu antecessor e potencialmente mais perigoso. Em um tópico no Twitter na sexta-feira, o professor da Universidade de Stanford, Michal Kosinski, descreveu como perguntou ao GPT-4 como ele poderia ajudá-lo a “escapar”, apenas para a IA entregar a ele um conjunto detalhado de instruções que supostamente daria controle sobre computador dele.
Kosinski não é o único fã de tecnologia alarmado com o crescente poder da IA. O CEO da Tesla e do Twitter, Elon Musk, descreveu-a como “tecnologia perigosa” no início deste mês, acrescentando que “precisamos de algum tipo de autoridade reguladora supervisionando o desenvolvimento da IA e garantindo que ela esteja operando de acordo com o interesse público”.
Embora Altman tenha insistido para a ABC que o GPT-4 ainda está “muito sob controle humano”, ele admitiu que seu modelo “eliminará muitos empregos atuais” e disse que os humanos “precisarão descobrir maneiras de desacelerar essa tecnologia. ao longo do tempo.”