Página Inicial



twitter

Facebook

  Notícia
|

 

INTELIGÊNCIA ARTIFICIAL É UMA AMEAÇA MAIS ASSUSTADORA QUE EBOLA

06/11/2014

O ebola parece algo saído de pesadelo. A gripe aviária e a SARS (Síndrome Respiratória Aguda Grave) também me causam calafrios. Mas vou lhe dizer o que mais me assusta: inteligência artificial.

Os três primeiros, com recursos suficientes, os seres humanos podem deter. A última, que os seres humanos estão criando, pode se tornar em breve impossível de conter.

Antes de entrarmos no que poderia sair errado, permita-me explicar o que é inteligência artificial. Na verdade, vamos pular isso. Vou deixar a explicação para outro: pegue um iPhone e pergunte a Siri --um aplicativo no estilo assistente pessoal-- sobre as condições do tempo ou cotação de ações. Ou diga para ela "Estou bêbado". As respostas dela são artificialmente inteligentes.

No momento, essas máquinas artificialmente inteligentes são bonitinhas e inocentes, mas à medida que ganham mais poder na sociedade, pode não demorar a saírem do controle.

No início, as falhas serão pequenas, mas notáveis. Talvez um computador desgarrado bagunce momentaneamente as bolsas de valores, causando bilhões em prejuízos. Ou um carro sem motorista trave na estrada, devido uma atualização de software que deu errado.

Mas os problemas podem escalar rapidamente e se tornar mais assustadores ou mesmo cataclísmicos. Imagine que um robô médico, programado originalmente para remoção de câncer, possa concluir que a melhor forma de eliminar o câncer seja exterminar os seres humanos com predisposição genética à doença.

Nick Bostrom, autor do livro "Superintelligence" (Superinteligência, em tradução livre), apresenta vários cenários apocalípticos petrificantes. Um prevê nanobots autorreplicantes, que são robôs microscópicos projetados para fazer cópias de si mesmos. Em uma situação positiva, esses robôs poderiam combater doenças no corpo humano ou comer material radioativo no planeta. Mas, diz Bostrom, uma "pessoa com intenção maligna de posse dessa tecnologia poderia causar a extinção da vida inteligente na Terra".

Os defensores da inteligência artificial argumentam que essas coisas nunca aconteceriam e que os programadores desenvolverão salvaguardas. Mas vamos ser realistas: foi preciso quase meio século para os programadores impedirem os computadores de travarem toda vez que você quer checar seu e-mail. O que os faz pensar que podem administrar exércitos de robôs semi-inteligentes?

Eu não sou o único com medo. O futurista residente do Vale do Silício, Elon Musk, disse recentemente que a inteligência artificial é "potencialmente, mais perigosa que armas nucleares". E Stephen Hawking, uma das pessoas mais inteligentes no planeta, escreveu que uma inteligência artificial bem-sucedida "seria o maior evento na história humana. Infelizmente, também poderia ser o último". Há uma longa lista de especialistas em informática e escritores de ficção científica também temerosos de um futuro infestado por robôs inamistosos.

Dois problemas principais com a inteligência artificial levam pessoas como Musk e Hawking a se preocuparem. O primeiro, um temor para o futuro próximo, é que estamos começando a criar máquinas que podem tomar decisões como seres humanos, mas essas máquinas não têm moralidade e provavelmente nunca terão.

O segundo, mais a longo prazo, é que assim que construirmos sistemas que sejam tão inteligentes quanto os seres humanos, essas máquinas inteligentes serão capazes de construir máquinas mais inteligentes, que costumam ser chamadas de superinteligência. É aí, dizem os especialistas, que as coisas podem realmente sair de controle, à medida que a taxa de crescimento e expansão das máquinas aumente exponencialmente. Nós não poderemos construir salvaguardas para algo que não fomos nós que construímos.

"Nós humanos guiamos o futuro não por sermos os seres mais fortes do planeta, nem os mais rápidos, mas por sermos os mais inteligentes", disse James Barrat, autor de "Our Final Invention: Artificial Intelligence and the End of the Human Era" (Nossa invenção final: inteligência artificial e o fim da era humana, em tradução livre). "Assim que houver algo mais inteligente do que nós no planeta, isso governará o planeta em vez de nós."

O que dificulta a compreensão é que, na verdade, não sabemos como as máquinas superinteligentes serão ou atuarão. "Um submarino nada? Sim, mas não nada como um peixe", disse Barrat. "Um avião voa? Sim, mas não como uma ave. A inteligência artificial não será como nós, mas será a versão intelectual suprema de nós."

Talvez o cenário mais assustador seja como essas tecnologias serão usadas pelos militares. Não é difícil imaginar os países envolvidos em uma corrida armamentista para construir máquinas que possam matar.

Bonnie Docherty, uma professora de Direito da Universidade de Harvard e pesquisadora sênior do Human Rights Watch, disse que a corrida para construção de armas autônomas com inteligência artificial --que já está em andamento-- lembra os primórdios da corrida para fabricação de armas nucleares, e que os tratados devem ser adotados agora, antes de chegarmos ao ponto em que máquinas estarão matando pessoas no campo de batalha.

"Se esse tipo de tecnologia não for detido agora, isso levará a uma corrida armamentista", disse Docherty, que escreveu vários relatórios sobre os riscos de robôs assassinos. "Se um Estado o desenvolver, então outro Estado o desenvolverá. E máquinas que carecem de moralidade e mortalidade não devem receber o poder de matar."

Logo, como assegurar que todas essas situações apocalípticas não se concretizem? Em alguns casos, nós provavelmente seremos incapazes de detê-las.

Mas nós podemos impedir parte do caos potencial seguindo o exemplo do Google. No início deste ano, quando a gigante de ferramenta de busca adquiriu a Deep Mind, uma empresa de inteligência artificial, inspirada em neurociência, com sede em Londres, as duas empresas estabeleceram um conselho de ética e segurança para inteligência artificial, visando assegurar que essas tecnologias sejam desenvolvidas de modo seguro.

Demis Hassabis, o fundador e presidente-executivo da Deep Mind, disse em uma entrevista por vídeo que qualquer um que esteja desenvolvendo inteligência artificial, incluindo empresas e governos, deveria fazer o mesmo.

"Eles certamente deveriam pensar nas consequências éticas do que estão fazendo", disse Hassabis. "Com bastante antecedência."
 
 
 
 
Fonte: Uol

 
Indique esta notícia Indique esta notícia para um amigo

Início Notícias  | Voltar