Bill Gates diz que pedidos para frear a Inteligência artificial não vão ‘resolver desafios’
O desenvolvimento da inteligência artificial (IA) causa preocupação. Tanto que os governos de vários países já estão promovendo a proibição de seu uso. Existem até pesquisadores que afirmam que os humanos podem ser extintos por não serem capazes de controlar a IA. Neste quadro, Bill Gates manifestou que os apelos para parar o desenvolvimento do sistema não é a melhor forma de “resolver os desafios” que temos pela frente.
Durante uma entrevista que concedeu à Reuters em 3 de abril , o cofundador da Microsoft explicou que seria melhor focar em como usar os desenvolvimentos da IA. “Não acho que pedir a um determinado grupo para fazer uma pausa resolva os desafios. Claramente há enormes benefícios nessas coisas… O que temos que fazer é identificar as áreas mais difíceis”, explicou.
Dizendo que seria difícil cumprir as regras para interromper o avanço da IA, Gates comentou que “realmente” não entende “quem está dizendo que isso poderia parar, se todos os países do mundo concordassem e por que deveria parar ”, acrescentando que “existem muitas opiniões diferentes nesta área”.
A entrevista foi realizada dias depois que o próprio Gates, Elon Musk e mais de mil especialistas assinaram uma carta aberta pedindo uma pausa urgente no desenvolvimento de sistemas “mais poderosos” do que o novo GPT-4 da OpenAI , apoiado pela Microsoft, capaz de mantendo conversas humanas, compondo músicas e resumindo documentos longos.
Nessa nota, os especialistas asseguram que é preciso avaliar os potenciais riscos e benefícios que a humanidade pode enfrentar diante dos novos sistemas.
Esta não foi a primeira vez que Gates se referiu às consequências da IA. Em fevereiro passado ele já havia garantido que o chatbot ChatGPT poderia mudar o mundo. “Até agora, a inteligência artificial podia ler e escrever, mas não conseguia entender o conteúdo. Novos programas como o ChatGPT tornarão muitos trabalhos de escritório mais eficientes, ajudando-os a escrever faturas ou cartas. Isso mudará nosso mundo”, disse ele .
Um perigo para a humanidade
Vários foram os alertas sobre o uso da IA. Até o CEO da OpenAI, Sam Altman, autor do ChatGPT, admitiu que estava “um pouco assustado”. “Temos que ter cuidado aqui”, disse ele, acrescentando que estava “particularmente preocupado que esses modelos possam ser usados para desinformação em larga escala” e “para ataques cibernéticos ofensivos”.
Por sua vez, Tristan Harris e Aza Raskin, dois dos fundadores do Center for Human Technology, participaram de um encontro ocorrido em São Francisco, nos Estados Unidos, no qual discutiram os perigos para a humanidade. “50% dos pesquisadores de IA acreditam que há 10% ou mais de chance de que os humanos sejam extintos devido à nossa incapacidade de controlar a IA ” , disse Harris .
Enquanto isso, Eliezer Yudkowsky, co-fundador da Apple, afirmou que as propostas da carta aberta assinada pelos mais de mil especialistas não serão suficientes para salvar a humanidade se “alguém construir uma IA muito poderosa”. “Nas condições atuais, acredito que todos os membros da espécie humana e toda a vida biológica na Terra morrerão logo depois”, disse, e esclareceu que não é uma opinião “de muitos pesquisadores” nem uma “possibilidade remota”, mas em vez disso, “isso é o que obviamente aconteceria”.