A Universidade de Cambridge, no Reino Unido, criou um centro de pesquisas para avaliar os riscos de que a tecnologia venha a destruir a civilização.
O Centro para o Estudo do Risco Existencial (CSER, na sigla em inglês) pretende analisar riscos impostos à humanidade pela biotecnologia, inteligência artificial, biologia sintética, mudanças climáticas antropogênicas e nanotecnologia.
O centro foi idealizado por um trio bastante heterogêneo: Huw Price (filósofo), Martin Rees (astrofísico) e Jaan Tallinn (cofundador do Skype).
Apesar de alguns riscos tecnológicos bastante conhecidos, como a contaminação por pesticidas e agrotóxicos e efeitos colaterais de medicamentos, além da falta de estudos adequados sobre outros, como a manipulação genética de plantas e animais e os efeitos das nanopartículas sobre a saúde e o meio ambiente, o grupo parece interessado em "riscos mais futurísticos".
Em suas declarações, o trio mostra preocupação com o que chamam de "singularidade tecnológica", um momento no qual computadores ou robôs se tornarão tão inteligentes que superarão os humanos, podendo passar a nos controlar.
Estaríamos então à mercê de "máquinas não exatamente maliciosas, mas máquinas cujos interesses não nos incluem," disse o professor Price.
Mostrando uma aparente desconexão entre preocupações e a realidade atual das pesquisas em robótica e em inteligência artificial, os pesquisadores viajam diretamente das previsões para o campo da futurologia, falando de máquinas que podem não se parecer com os seres humanos, mas que serão mais inteligentes.
Em alguns momentos, os riscos alegados pelo trio parecem tão distantes no futuro - se é que se realizarão - que é difícil discerni-los da ficção científica.
Que um robô que adquira consciência e decida levar a vida por si próprio pode representar um risco para a humanidade, é algo inegável.
Mas qual é a distância entre os robôs atuais e o T-1000? Ou entre os aplicativos de inteligência artificial de hoje e a Skynet?
Parece que o centro destinado a estudar riscos existenciais nasce com um risco intrínseco: o de focar riscos tão improváveis que suas pesquisas nunca poderão ser validadas.
A tecnologia sempre gerou temores, alguns infundados, outros não. Mas os riscos parecem ter quase sempre vindo de onde menos se suspeitava.
De qualquer forma, o que se espera do Centro para o Estudo do Risco Existencial é que se gerem discussões filosóficas ricas, e não apenas distopias amedrontadoras para a população - de profecias sobre o fim do mundo já temos o bastante.
FONTE: SITE INOVAÇÃO TECNOLOGICA
O Centro para o Estudo do Risco Existencial (CSER, na sigla em inglês) pretende analisar riscos impostos à humanidade pela biotecnologia, inteligência artificial, biologia sintética, mudanças climáticas antropogênicas e nanotecnologia.
O centro foi idealizado por um trio bastante heterogêneo: Huw Price (filósofo), Martin Rees (astrofísico) e Jaan Tallinn (cofundador do Skype).
Apesar de alguns riscos tecnológicos bastante conhecidos, como a contaminação por pesticidas e agrotóxicos e efeitos colaterais de medicamentos, além da falta de estudos adequados sobre outros, como a manipulação genética de plantas e animais e os efeitos das nanopartículas sobre a saúde e o meio ambiente, o grupo parece interessado em "riscos mais futurísticos".
Em suas declarações, o trio mostra preocupação com o que chamam de "singularidade tecnológica", um momento no qual computadores ou robôs se tornarão tão inteligentes que superarão os humanos, podendo passar a nos controlar.
Estaríamos então à mercê de "máquinas não exatamente maliciosas, mas máquinas cujos interesses não nos incluem," disse o professor Price.
Mostrando uma aparente desconexão entre preocupações e a realidade atual das pesquisas em robótica e em inteligência artificial, os pesquisadores viajam diretamente das previsões para o campo da futurologia, falando de máquinas que podem não se parecer com os seres humanos, mas que serão mais inteligentes.
Em alguns momentos, os riscos alegados pelo trio parecem tão distantes no futuro - se é que se realizarão - que é difícil discerni-los da ficção científica.
Que um robô que adquira consciência e decida levar a vida por si próprio pode representar um risco para a humanidade, é algo inegável.
Mas qual é a distância entre os robôs atuais e o T-1000? Ou entre os aplicativos de inteligência artificial de hoje e a Skynet?
Parece que o centro destinado a estudar riscos existenciais nasce com um risco intrínseco: o de focar riscos tão improváveis que suas pesquisas nunca poderão ser validadas.
A tecnologia sempre gerou temores, alguns infundados, outros não. Mas os riscos parecem ter quase sempre vindo de onde menos se suspeitava.
De qualquer forma, o que se espera do Centro para o Estudo do Risco Existencial é que se gerem discussões filosóficas ricas, e não apenas distopias amedrontadoras para a população - de profecias sobre o fim do mundo já temos o bastante.
FONTE: SITE INOVAÇÃO TECNOLOGICA
Comentários
Postar um comentário