A companhia responsável pelo AlphaGO – o primeiro programa de
inteligência artificial a vencer um campeão de Go, um jogo de tabuleiro
de origem chinesa – lançou um conselho de ética para supervisionar o
desenvolvimento responsável de inteligência artificial. É uma boa
campanha de relações públicas, haja vista as recentes preocupações sobre
tecnologias super inteligentes, mas o Google, que é dono da DeepMind,
precisará auxiliar e ouvir este novo conselho caso realmente queira
construir inteligências artificiais seguras.
O novo conselho, chamado de DeepMind Ethics & Society,
é uma nova unidade de pesquisa que aconselhará os cientistas e
desenvolvedores da DeepMind em seu trabalho para desenvolver cada vez
mais capazes e poderosas inteligências. Foi incumbido ao conselho dois
objetivos primários: ajudar desenvolvedores de inteligências artificiais
a colocar a ética em prática (por exemplo, mantendo a transparência,
responsabilidade, inclusividade, etc) e a educar a sociedade sobre os
potenciais impactos desta inteligências, tanto os bons quanto os ruins.
“Tecnologia não é um valor neutro, e tecnólogos devem ter
responsabilidade dos impactos éticos e sociais do seu trabalho”, diz um post introdutório
do DeepMind. “Como atesta a história, inovação tecnológica por si
própria não é garantia de maior progresso social. O desenvolvimento de
inteligências artificiais criam importantes e complexas questões. Seu
impacto na sociedade – e na vida de todos – não é algo que deveria ser
deixado de lado. Resultados benéficos e proteções contra malefícios
devem ser prioritários desde o início. Mas em um campo tão complexo
quanto a inteligência artificial, isso é mais fácil falar do que fazer”.
Inclusive, estamos rapidamente avançando para um terreno
desconhecido. O desenvolvimento de inteligências artificiais sem
verificação e de livre mercado pode levar a um número de conclusões
sociais indesejáveis, de bots com predisposições preconceituosas de raça, gênero e orientação sexual, até máquinas mal programadas que levam a erros catastróficos.
Convenientemente, o novo conselho ético da DeepMind diz que aplicações
de IA “devem permanecer sob significante controle humano” e ser usadas
para “propósitos de benefício social”.
Para atingir tal objetivo, o grupo desenvolveu uma lista com cinco princípios;
os cientistas e desenvolvedores da DeepMind precisam garantir que a
inteligência artificial é boa para a sociedade, com base em evidências,
transparências e colaboração diversa, interdisciplinar e colaborativa.
Ela também lista diversos desafios éticos importantes,
como impactos econômicos compensatórios, riscos ao administrá-la,
concordar na moralidade e nos valores da inteligência, entre outros. Uma
consultoria de membros acadêmicos também foi criada, e incluem
pensadores e especialistas como Nick Bostrom, filósofo da Universidade
Oxford, Diane Coyle, economista da Universidade de Manchester, Edward W.
Felten, cientista da computação da Universidade Princeton, Christiana
Figueres, convocadora da Mission 2020, entre outros.
Isso é muito bom, é claro, e até bem intencionado, mas o que importa mesmo é o que acontece a seguir.
Quando o Google adquiriu a DeepMind em 2014, ele prometeu criar um
grupo chamado Conselho de Ética de IA – mas ainda não é imediatamente
aparente o que este grupo fez nestes quase três anos e meio desde a
aquisição. Como aponta o The Guardian,
“permanece um mistério quem é [o Conselho de Ética de IA], o que eles
discutem, ou até se já se encontraram oficialmente”. Com sorte, o DeepMind Ethics & Society terá um começo melhor e de fato fará algo significante.
Caso isso aconteça, entretanto, é possível que o conselho passe a
oferecer recomendações que os donos do DeepMind/Google não apreciarão.
Por exemplo, o conselho pode recomendar que o Google não use aplicações
de inteligência artificial em áreas que sejam consideradas rentáveis, ou
ainda, recomendar restrições nas inteligências que severamente limitem o
alcance do potencial futuro de seus produtos.
Este tipo de conselho de ética está surgindo em todos os lugares (veja a OpenAI
de Elon Musk, por exemplo), mas isso é apenas uma prévia do que é
inevitável: intervenção governamental. Uma vez que a inteligência
artificial chegue ao estágio em que realmente se torna uma ameaça a
sociedade, e exemplos nocivos se tornem impossíveis de ignorar, o
governo terá de intervir e começar a exercer regulações e controle.
Quando se trata de inteligência artificial, estamos ainda na fase do
Velho Oeste – mas isso eventualmente chegará a um abrupto fim.
Fonte: Gizmodo