Google está “criando Deus”, alerta ex executivo da Google


Segundo um ex-executivo do Google, a singularidade está chegando. E, segundo ele isso representa uma grande ameaça para a humanidade.

Mo Gawdat, ex-diretor de negócios da organização moonshot do Google, que na época se chamava Google X, emitiu seu alerta em uma nova entrevista ao The Times. Nela, ele disse que acredita que a inteligência geral artificial (AGI, na sigla em inglês), aquele tipo de IA todo-poderosa e senciente vista na ficção científica como Skynet de “O Exterminador do Futuro”, é inevitável e que, uma vez que vire realidade, a humanidade pode muito bem sofrer um apocalipse criado por máquinas divinas.

Assustando

Gawdat disse ao The Times que teve essa revelação assustadora enquanto trabalhava com desenvolvedores de IA no Google X, que estavam construindo braços robóticos capazes de encontrar e pegar uma pequena bola. Após um período de lenta progressão, Gawdat disse que um braço agarrou a bola e parecia estendê-la para os pesquisadores em um gesto que, para ele, parecia estar se exibindo.

“E de repente percebi que isso é realmente assustador”, disse Gawdat. “Isso me congelou completamente.”

“A realidade é”, acrescentou ele, “estamos criando Deus”.

Perigos reais

Não há pouca conversa sobre o terror da IA ​​na indústria de tecnologia; Elon Musk alertou repetidamente o mundo sobre os perigos da IA ​​algum dia conquistar a humanidade, por exemplo. Mas esse tipo de perspectiva especulativa de alguma forma encobre os riscos e danos reais relacionados às IA que já criamos.

Por exemplo, o reconhecimento facial e algoritmos de policiamento preditivo causaram danos reais em comunidades carentes. Inúmeros algoritmos por aí continuam a propagar e codificar o racismo institucional em todas as áreas. Esses são problemas que podem ser resolvidos por meio de supervisão e regulamentação – mas você não saberia disso se, como Gawdat, pensasse no desenvolvimento da IA ​​como o nascimento inevitável de um deus vingativo.

Fonte: HyperSciense










Postar um comentário

0 Comentários