Pesquisar algo

Cientistas e engenheiros alertam para os perigos da inteligência artificial


Recentemente, foi divulgada uma carta aberta pedindo cautela para garantir que máquinas inteligentes não sejam executadas de maneira irresponsável, e ela foi assinada por um grande e crescente número de pessoas, incluindo algumas das principais figuras da área de inteligência artificial.
O medo de nossas próprias criações remontam ao cenário de Frankenstein, e de filmes como O Exterminador do Futuro
, dando-nos uma nova abordagem (ou melhor, um experimento de pensamento) para discutir o que aconteceria se os robôs parassem de receber ordens humanas.
Em dezembro, Stephen Hawking deu reinício a um velho debate sobre os problemas da inteligência artificial. Como ele é alguém cuja a capacidade de comunicação depende exclusivamente da tecnologia de um computador avançado, Hawking dificilmente poderia ser ignorado (mesmo que em ciência não exista autoridades).
A carta foi divulgada pela Future of Life Institute, uma organização de voluntários que se descreve como “trabalhadores que investigam os riscos existenciais que a humanidade enfrenta”. Segue a nota:
“Os recursos que são oferecidos nessas áreas geralmente cruzam o limiar da pesquisa de laboratório em tecnologias economicamente valiosas, um ciclo virtuoso que acontece mesmo em pequenas melhorias no desempenho que valem grandes somas de dinheiro, levando a maiores investimentos em pesquisa. Agora existe um amplo consenso de que a pesquisa em IA está progredindo de forma constante, e que seu impacto na sociedade é susceptível de aumentar. Os benefícios potenciais são enormes, uma vez que tudo que a civilização tem para oferecer é um produto da inteligência humana; não podemos prever o que poderíamos conseguir quando essa inteligência for ampliada pelas ferramentas fornecidas a IA, mas a erradicação da doença e da pobreza não são insondáveis. Devido ao grande potencial da AI, é importante pesquisar como colher seus benefícios, evitando potenciais armadilhas “.
Os autores acrescentam que “os sistemas de IA devem fazer o que quer que eles façam”, e definem que as prioridades na investigação ajudarão a “maximizar o benefício social da AI”.
Qualquer um pode assinar, e no momento da edição deste texto bem mais de mil pessoas já o fizeram. Apesar de muitos não indicarem qualquer afiliação, nomes como Elon Musk e o próprio Stephen Hawking são facilmente reconhecidos. Muitos outros nomes da lista figuram entre os principais pesquisadores na área de TI ou filosofia, incluindo a equipe da IBM por trás do supercomputador Watson.
Com tanto peso intelectual e financeiro, existe uma boa perspectiva para a realização de pesquisas nas áreas propostas. Musk disse que investe em empresas que pesquisam em IA. Mas ele teme que, mesmo que a maioria dos pesquisadores se comportem de forma responsável, na ausência de uma regulamentação internacional, uma única nação desonesta ou corporação poderia produzir máquinas auto-replicantes cujas prioridades poderiam ser muito diferentes para a humanidade.
Em uma notícia publicada na New Scientist
, um especialista decidiu rebater algumas das afirmações do físico Stephen Hawking sobre os possíveis problemas em Inteligência Artificial. O autor levanta algumas questões científico-filosóficas sobre como analisar os perigos da Inteligência Artificial, se quiser ler o artigo completo, clique aqui.
Stephen Luntz. Scientists and engineers warn of the dangers of artificial intelligence.
2015.
View the original article here

Nenhum comentário:

Tecnologia do Blogger.