. Google levanta questões sobre desenvolvimento da inteligência artificial - Tudo Sobre Tecnologia



Em 2016 o Google publicou um conjunto de regras bastante parecido. No entanto, são cinco pontos para guiar os desenvolvedores a criar inteligência artificial mais esperta e segura. O texto foi resumido no blog de pesquisas do Google.
 
Esboçamos cinco problemas que pensamos que serão muito importantes à medida em que aplicamos a IA em circunstâncias mais gerais; São todas pensando à frente, em questões de pesquisas a longo termo - problemas menores hoje, mas importantes de abordar para sistemas futuros", explicou Chris Olah.


O documento chega em um momento em que há frequente manifestação sobre os perigos da inteligência artificial. Elon Musk declarou temer o desenvolvimento de robôs "pensantes" de "apenas uma empresa", mas se recusou a dizer qual - especula-se que seja Google ou Apple. Em resposta, a gigante das buscas afirmou estudar uma espécie de botão vermelho para desligar IA em caso de emergências. Seja como for, a tecnologia ainda está deixando de engatinhar para começar a se arriscar a caminhar em duas pernas, para usar uma metáfora da vida humana. E este princípio também preocupa os pesquisadores.
As questões publicadas pelo pessoal do Google são:
  • Evitar efeitos colaterais negativos: como evitar que um sistema de IA não perturbe seu ambiente de forma negativa ao realizar suas tarefas, como um robô de limpeza que derruba um vaso para limpar mais rápido?
  • Evitar recompensas a soluções alternativas: como podemos evitar a manipulação da função de recompensas? Por exemplo, não queremos um robô de limpeza cobrindo sujeira com materiais que ele não vê como sujeira;
  • Supervisão escalável: como evitar que um robô pare frequentemente suas tarefas para receber feedback de um ser humano? Um sistema IA deve ser eficiente e conseguir usar os comentários já realizados para se adaptar e melhorar;
  • Exploração segura: como evitar que um sistema IA se machuque enquanto aprende? Por exemplo, um robô de limpeza deve tentar utilizar um esfregão, mas é evidente que não deve utilizar um esfregão molhado em componentes elétricos;
  • Robustez para mudanças distribucionais: como garantir que um sistema IA reconheça e se comporte de maneira robusta quando é colocado em um ambiente diferente daquele em que foi treinado? Por exemplo, práticas aprendidas em uma fábrica podem não ser ideais para um escritório.


Algumas questões lembram incidentes já vividos por sistemas de inteligência artificial. O fato de aprender com quem interage, por exemplo, levou ao desligamento temporário da Tay, robô desenvolvida para as redes sociais. Assistentes virtuais também já causaram problemas relacionados a suicídio e estupro. Enfim, ainda há muito a evoluir, então talvez não seja a hora de pensar em leis para evitar que os robôs se voltem contra nós.
Este é um dos motivos pelos quais os pontos levantados não são como as Leis de Asimov. Ainda por cima, eles se referem ao desenvolvimento da inteligência artificial, sem mostrar (ainda) preocupação com alguma rebelião dos robôs contra a raça humana. Foi publicado um documento mais detalhado e técnico com todas essas questões, que você pode ser aqui (em inglês).


0 comentários Goocle+ 0 Facebook

Postar um comentário

 
Tudo Sobre Tecnologia © 2013-2020. Todos os direitos reservados. Tudo Sobre Tecnologia. Desenvolvido por TST
Topo