Página Inicial



twitter

Facebook

  Notícia
|

 

STEPHEN HAWKING EXPLICA O RISCO DA EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL

09/10/2015

O físico Stephen Hawking participou nesta quinta-feira, 8, de uma sessão de perguntas e respostas no Reddit, onde compartilhou alguns de seus principais medos sobre a evolução da inteligência artificial e os riscos que isso pode trazer para a humanidade.

Quando questionado sobre os riscos de uma IA “maligna”, ele minimizou o tema, que, segundo ele, é mal-interpretado pela mídia. A questão não é sobre “maldade”, mas sobre competência, ele explica.

“Uma IA superinteligente será extremamente boa em atingir suas metas, e se essas metas não estiverem alinhadas com as nossas, estamos com problemas. Você provavelmente não é um odiador de formigas que pisa nelas por maldade. No entanto, se você estiver no comando de um projeto de uma hidrelétrica e há um formigueiro na região que será inundada, azar das formigas. Não podemos deixar a humanidade ficar na posição destas formigas”, afirmou.

Ele também abordou outro tema recorrente com o avanço tecnológico, que é o desemprego causado pelas máquinas.

“Se as máquinas produzirem tudo de que precisamos, o resultado dependerá de como as coisas são distribuídas. Todo mundo poderá aproveitar uma vida de lazer luxuoso se a riqueza produzida pela máquina for compartilhada, ou a maior parte das pessoas pode se tornar miserável se os donos das máquinas conseguirem se posicionar contra a redistribuição da riqueza. Até agora, a tendência tem sido para a segunda opção, com a tecnologia aumentando a desigualdade”.

Máquinas mais inteligentes que a humanidade

Stephen Hawking deixou bem clara a sua posição. “É claramente possível que algo adquira inteligência superior aos seus ancestrais, como nós evoluímos para sermos mais espertos que nossos ancestrais similares aos macacos, e Einstein era mais inteligente que seus pais”, conta ele.

No fim das contas, ele não sabe dizer se um dia as máquinas poderão se projetar melhor do que os humanos são capazes, mas ele tem uma certeza: se isso acontecer, “podemos encarar uma explosão de inteligência que resulte em máquinas cuja inteligência exceda a nossa por muito mais do que a nossa excede a de uma lesma”.
 
 
 
Fonte: Olhar Digital

 
Indique esta notícia Indique esta notícia para um amigo

Início Notícias  | Voltar