GOOGLE CRIA 5 REGRAS PARA GARANTIR QUE A INTELIGÊNCIA ARTIFICIAL SEJA SEGURA
6/23/2016
Sistemas de inteligência artificial estão se espalhando com rapidez
e, sendo dono de um dos robôs que mais chamaram atenção recentemente (aquele que venceu um campeonato de Go), o Google quer deixar claro que está levando em consideração a possibilidade de que as máquinas fiquem espertas demais.
Em comunicado divulgado
nessa quarta-feira, 22, a companhia afirma que embora os riscos
relacionados a inteligência artificial venham recebendo muita atenção
pública, a maior parte da discussão tem girado em torno de hipóteses e
especulações.
Por isso o Google fechou parcerias com pesquisadores de Stanford,
Berkeley e da OpenAI para desenvolver um estudo técnico que mergulha
fundo na questão. “Nós listamos cinco problemas que achamos que serão
muito importantes à medida que aplicamos IA em mais circunstâncias
gerais”, explica a companhia.
Os cinco tópicos são:
- Evitar efeitos colaterais negativos: como podemos assegurar que um
sistema de IA não causará distúrbios em seu ambiente de forma negativa
enquanto persegue seus objetivos, por exemplo, um robô de limpeza que
derruba um vaso porque ele pode limpar mais rapidamente se fizer isso?
- Evitar prêmios por trapaças: como podemos evitar o jogo da função
por recompensas? Por exemplo, não queremos este robô de limpeza
simplesmente cobrindo sujeira com materiais através dos quais ele não
consegue ver.
- Supervisão escalonável: como podemos assegurar eficientemente que um
sistema de IA respeite os aspectos do objetivo que são muito caros para
serem frequentemente avaliados durante o treinamento? Por exemplo, se
um sistema de IA recebe avaliação enquanto realiza uma tarefa, ele
precisa usar essa avaliação eficientemente, porque pedir com muita
frequência seria irritante.
- Exploração segura: como asseguramos que um sistema de IA não faça
movimentos exploratórios com repercussões muito negativas? Por exemplo,
talvez um robô de limpeza devesse fazer experimentos com estratégias
envolvendo esfregão, mas ele claramente não deveria tentar colocar um
esfregão molhado numa tomada.
- Robustez em mudanças de turnos: como asseguramos que um sistema de
IA reconheça e se comporte com robustez quando ele estiver em um
ambiente muito diferente do seu ambiente de treinamento? Por exemplo,
aprendizados heurísticos de um chão de fábrica talvez não sejam seguros o
bastante para um escritório.
Fonte: Olhar Digital
Indique esta notícia 
Início Notícias | Voltar
|
|