CIÊNCIA E TECNOLOGIA

Singularidade tecnológica

singtec2Singularidade tecnológica é a denominação dada a um evento histórico previsto para o futuro, no qual a humanidade atravessará um estágio de colossal avanço tecnológico em um curtíssimo espaço de tempo, quando a inteligência artificial terá superado a inteligência humana, alterando radicalmente a civilização e a natureza humana. Baseando-se em avanços nas áreas da informática, inteligência artificial, medicina, astronomia, nanotecnologia, genética e biotecnologia, muitos estudiosos acreditam que nas próximas décadas a humanidade irá atravessar a singularidade tecnológica e é impossível prever o que acontecerá depois deste período. A aceleração do progresso científico e tecnológico tornou-se, nos últimos 300 anos, a característica mais marcante da história da humanidade.

Desde o surgimento da ciência no século VI a.C com Tales de Mileto e posteriormente com avanços de Galileu Galilei, Isaac Newton e Leibniz profundas mudanças políticas e econômicas ocorreram em todos os países. Tais mudanças se fazem mais notáveis nos últimos 30 anos com a explosão da era digital e do capitalismo financeiro.

Ainda não existe consenso sobre quais seriam os agentes responsáveis pela singularidade tecnológica. Alguns acreditam que ela decorrerá naturalmente, como consequência dos acelerados avanços científicos. Outros acreditam que o surgimento iminente de supercomputadores dotados da chamada superinteligência será a base de tais avanços - argumenta-se em favor disso que somente com uma inteligência superior à humana poderíamos ter avanços científicos e tecnológicos tão rápidos e importantes. Há também quem acredite na integração homem-computador para o surgimento da superinteligência, mas a tecnologia necessária para tal pode estar mais distante de ser alcançada do que a inteligência artificial.

Vários cientistas, entre eles Vernor Vinge (a quem é creditada a criação do termo) e Raymond Kurzweil, assim como alguns filósofos, afirmam que a singularidade tecnológica é um evento histórico de importância semelhante ao aparecimento da inteligência humana na Terra. Outros, mais levianos, afirmam que a singularidade tecnológica é para o século XXI o que a revolução industrial foi para o século XVIII ou simplesmente que a singularidade tecnológica é, na verdade, a quarta revolução industrial.

Para fazer uma estimativa precisa de quando exatamente a inteligência artificial conseguirá alcançar níveis superiores à inteligência humana muitos índices tem sido usados e comparados. A lei de Moore, em vigor há mais de 30 anos, segundo a qual a cada 18 meses a capacidade de processamento dos computadores dobra, enquanto os custos permanecem constantes, é extensamente usada como modelo nos estudos sobre singularidade tecnológica.

No modelo de singularidade tecnológica como consequência natural do acelerado progresso técnico-científico, vários outros índices também têm sido utilizados. Dentre eles podemos destacar: o número crescente de publicações científicas anuais, o número crescente de patentes registradas e a crescente concorrência econômica e industrial internacional.

A maior parte daqueles que pesquisam ou discutem a singularidade tecnológica acreditam que esta possa decorrer entre os anos de 2025 e 2070, embora seja perfeitamente possível que esta demore mais a ocorrer ou, simplesmente, não ocorra.

Em 2011, Kurzweil observou tendências existentes e concluiu que a singularidade estava se tornando mais provável de ocorrer em torno de 2045. Ele disse à revista Time: "Vamos fazer com sucesso a engenharia reversa do cérebro humano em meados dos anos 2020. No final dessa década, os computadores terão inteligência no mesmo nível humano."

Perigos potenciais

Existe atualmente uma complexa discussão sobre os perigos que a singularidade tecnológica poderá trazer à humanidade.

Segundo muitos estudiosos, um intelecto artificial muito superior aos melhores cérebros humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidade social, não teria porquê estar submisso a nós. De acordo com esta linha de raciocínio, Vernor Vinge aposta na rebelião das máquinas inteligentes contra os homens, o que poderia resultar em um extermínio total ou na escravização da raça humana após uma guerra de grandes proporções, muitas vezes apontada como uma possível Terceira Guerra Mundial. Ao lado de Vernor Vinge, temos também Bill Joy, fundador da Sun Microsystems, que publicou no ano 2000 o atualmente famoso artigo "Por que o futuro não precisa de nós?", onde defende a ideia de que as máquinas inteligentes e auto-replicantes são perigosas demais e poderão facilmente fugir do nosso controle.

Tradicionalmente argumenta-se que os homens jamais iriam entregar o poder às máquinas ou dar-lhes a capacidade de tomá-lo de nós, mas as coisas podem se suceder de forma diferente, já que o grau de dependência do homem aumentará paulatinamente até chegar a um ponto em que não restem alternativas senão a de aceitar as decisões tomadas pelas máquinas. Na mesma proporção em que os problemas da sociedade se tornarem mais complexos e as máquinas mais inteligentes, cada vez mais decisões serão tomadas por elas simplesmente por serem mais eficazes que as tomadas pelos humanos. Isso pode levar a um estágio em que a nossa dependência em relação às máquinas transforme-se no domínio pacífico das mesmas sobre nós, o que não descarta a possibilidade de um domínio agressivo.

Numa linha de raciocínio alternativa, o matemático, escritor e ativista político Theodore Kaczynski, conhecido como o terrorista Unabomber, publicou um manifesto sobre a possibilidade das classes superiores da sociedade usarem-se da tecnologia para simplesmente eliminar as massas inferiores. Kaczynski é também adepto do ludismo e é radicalmente contra o avanço tecnológico da forma como ele está acontecendo. Os artigos de Kaczynski foram incluídos em um livro recente de Raymond Kurzweil.

Outros perigos mais amenos dizem respeito a exclusão digital e social e ao impacto da singularidade tecnológica sobre a economia internacional, especialmente sobre os países pobres e emergentes.

Há ainda questões éticas, como sob qual uso os equipamentos de realidade virtual serão usados pelo homem. Bill Gates afirmou em seu livro The Road Ahead (A Estrada do Futuro) que uma roupa com tecidos hipersensíveis poderia ser usada para simular sexo com o auxílio de um óculos de realidade virtual, o que levantaria questões polêmicas. Ele ainda prevê que num futuro ainda mais distante robôs poderiam ser usados de forma extremamente realista para o ato sexual e humanos poderiam aderir em massa, deixando de ter filhos e de se engajar em relacionamentos reais, diminuindo exponencialmente a população do planeta e tornando ainda mais fácil o domínio das máquinas em relação ao homem. O fator mais indicativo desse processo é a observação do vício na utilização da Internet e os sintomas que mundos virtuais causam em pessoas propensas ao vício, como isolamento social intenso, negligência quanto a alimentação e saúde, sedentarismo e perda de contato com a realidade.


Singularidade tecnológica: os seres humanos serão dominados pelas máquinas?

singtec5


POR GUILHERME HAAS, 2014 - Quanto mais a tecnologia, a robótica e a inteligência artificial avançam, mais a pergunta nos assombra: será que um dia as máquinas que construímos poderão nos superar, criar autonomia e, eventualmente, nos escravizar? A ficção, tanto literária quanto cinematográfica, nos traz muitos exemplos e projeções de um futuro possível. Entre apocalípticos e integrados, há previsões e prognósticos dos mais variados, tanto de quem acredita no convívio harmonioso de homens e robôs quanto daqueles que dão como certo o extermínio da raça humana.

Filósofos e cientistas discutem cada vez mais essa questão, preocupados com as questões éticas e de prevenção no que se trata da evolução tecnológica; afinal, o que acontece se perdermos o controle de nossas máquinas? E se dermos autonomia de decisão para seus sistemas, de forma que elas finalmente adquirissem consciência? O consenso no debate atual diz que é simplesmente impossível prever o que pode acontecer. Afinal, talvez esse cenário nunca venha a acontecer e os homens jamais concedam tanto controle às máquinas. E, mesmo na pior hipótese, não temos como adivinhar o comportamento de robôs inteligentes. Veríamos uma rebelião como nos filmes do “Exterminador do Futuro” ou uma escravidão da humanidade, transformada em bateria para os sistemas computacionais, como em “Matrix”?

A singularidade tecnológica

A ideia de que em algum momento futuro a inteligência artificial vai superar a humana recebeu o termo de singularidade tecnológica a partir do texto do cientista e escritor Vernor Vinge. O artigo “The Coming Technological Singularity: How to Survive in the Post-Human Era”, de 1993, considera o evento iminente, previsto para ocorrer antes de 2030, e que transformará radicalmente a civilização.

Vinge compara a singularidade tecnológica ao surgimento da inteligência humana no mundo e aponta as possibilidades de como esse estágio de desenvolvimento pode acontecer. O autor enumera quatro campos científicos que podem levar à superação dos homens pelas máquinas: o avanço dos sistemas de inteligência artificial, as redes computacionais se tornarem autoconscientes, as interfaces entre homem e máquina se tornarem tão complexas que produziriam um estágio evolutivo do homem e a ampliação da inteligência humana natural através de melhores técnicas da ciência biológica.

Dessas considerações, Vinge parece mais interessado em discutir as probabilidades de evolução da inteligência artificial. Uma das justificativas teóricas para explicar essa possibilidade é a Lei de Moore, em vigor há mais de 30 anos, segundo a qual a cada 18 meses a capacidade de processamento dos computadores dobra. De acordo com o autor, nesse ritmo é apenas uma questão de tempo até que o homem crie máquinas capazes de pensar como nós.

Com maior processador, softwares poderão ser desenvolvidos para que os sistemas computacionais possam analisar dados e tomar decisões de forma autônoma. Se hoje máquinas já são utilizadas na construção de peças, carros e chips eletrônicos, não é difícil imaginá-las projetando modelos melhores e mais avançados, caso venham a ter autonomia e maior inteligência.

Com a possibilidade de máquinas e robôs se autorreplicarem, e ainda por cima sabendo como melhorarem a si mesmos, os seres humanos se tornariam obsoletos para o avanço da tecnologia. Assim que os processos envolvidos no setor forem maiores do que a capacidade de entendimento dos humanos, chegaríamos ao momento da singularidade tecnológica, com a inteligência humana superada pela artificial.

Ameaça à humanidade

Apesar de teorizar a respeito dos cenários futuros possíveis, Vinge não defende a singularidade tecnológica como uma certeza e uma inevitabilidade. O próprio autor argumenta que talvez a tecnologia não crie as condições para esse evento histórico, e cientistas preveem que estamos próximos de um limite físico fundamental no que diz respeito à capacidade dos processadores – que eles não poderão ser muito mais avançados do que já são hoje.
Porém, a possibilidade de que isso possa acontecer gera muita discussão, especialmente sobre os perigos e as ameaças que a situação representa para a humanidade. O maior temor é que os homens percam o controle sobre as máquinas, e que elas possam se revoltar contra os humanos, provocando uma guerra, a escravidão ou até mesmo o extermínio da nossa raça.

Em uma perspectiva menos apocalíptica, podemos nos tornar dependentes demais da inteligência das máquinas para resolver questões sociais mais complexas e de ordem global, o que nos obrigaria a aceitar as decisões desses sistemas – o que também não é tão improvável considerando como já confiamos bastante nas informações que recebemos por meios computacionais. Outras formas de ameaças podem surgir pelo uso da inteligência artificial para propagar a segregação de classe, a exclusão digital, econômica ou social, especialmente em regiões não democráticas, mais pobres ou sob regimes totalitários. É possível imaginar até mesmo um Big Brother comandado em rede pelas máquinas.

Mesmo quem acredita que o homem pode definir leis como as de Asimov para assegurar o controle dos robôs pelos humanos cogita que, se a inteligência artificial superar a humana, as máquinas não teriam razão para se manterem submissas a nós. Por enquanto, tudo o que podemos antecipar sobre o futuro não passa de especulações e teorias que parecem mesmo saídas de obras de ficção científica. Porém, elas revelam dilemas cada vez mais presentes no meio científico, filosófico e acadêmico, o que sugere que talvez seja hora de tomar a pílula vermelha e se conscientizar sobre o rumo da humanidade.


O que é a singularidade tecnológica?

singtec3


Por Jonathan Strickland - É um tema comum da ficção científica - a humanidade luta para sobreviver em uma sociedade futurística distópica. Cientistas descobrem tarde demais que suas máquinas são muito poderosas para controlar. Computadores e robôs forçam a raça humana à servidão. Mas este roteiro popular pode não pertencer ao reino da fição para sempre. Discutido por filósofos, cientistas da computação e mulheres chamadas Sarah Connor [mesmo nome da personagem central de "O Exterminador do Futuro"], essa ideia parece ganhar mais credibilidade a cada ano.

Poderiam as máquinas substituir os humanos como força dominante no planeta? Alguns podem argumentar que nós já alcançamos esse ponto. Afinal, os computadores permitem que nos comuniquemos uns com os outros em tempo real não importa a distância, que fiquemos de olho em sistemas complexos como os mercados globais, e até que controlemos as armas mais perigosas do mundo. No topo disso, os robôs fizeram da automação uma realidade para trabalhos que vão da montagem de automóveis à fabricação de chips de computadores.

Mas no momento, essas máquinas têm de responder aos humanos. Lhes falta a capacidade de tomar decisões fora de sua programação ou usar a intuição. Sem o autoconhecimento e a capacidade de extrapolar, baseada na informação disponível, as máquinas são apenas ferramentas.

Quanto tempo isso vai durar? Estamos nos encaminhando para um futuro em que as máquinas ganham algum tipo de consciência? Se sim, o que acontece conosco? Entraremos em um futuro no qual computadores e robôs fazem todo o trabalho e gozam os frutos de seu suor? Seremos convertidos em baterias ineficientes a la "Matrix"? Ou as máquinas exterminarão a raça humana da face da Terra?

Para uma pessoa comum, essas questões parecem estranhas. Mas algumas pessoas acham que nós precisamos levar esse tipo de pergunta em consideração agora. Uma dessas pessoas é Vernor Vinge, ex-professor de matemática da Universidade Estadual de San Diego. Vinge propõe que a humanidade está se dirigindo para um destino irrevogável no qual nós evoluiremos além da nossa compreensão através do uso da tecnologia. Ele chama isso de singularidade.

O que é singularidade e como ela pode acontecer?

Vernor Vinge propõe uma interessante - e potencialmente assustadora - previsão em seu artigo intitulado "The Coming Technological Singularity: How to Survive in the Post-Human Era" ("A Singularidade Tecnológica Vindoura: Como Sobreviver na Era Pós-Humana"). Ele afirma que a humanidade vai desenvolver uma inteligência sobre-humana antes de 2030. O texto especifica quatro maneiras em que isso pode acontecer:

Cientistas poderiam desenvolver avanços em inteligência artificial (AI)

Redes de computadores se tornariam, de algum modo, autoconscientes

Interfaces cérebro-computador ficariam tão avançadas que os humanos essencialmente evoluiriam para uma nova espécie

Avanços na ciência biológica permitiram aos humanos a construir a inteligência fisicamente

Dessas quatro possibilidades, as primeiras três poderiam levar a máquinas tomando o poder. Embora Vinge discorra sobre todas as possibilidades em seu artigo, ele passa a maior parte do tempo discutindo a primeira. Vamos dar uma olha em sua teoria.

A tecnologia de computadores avança a uma taxa mais rápida do que muitas outras tecnologias, Os computadores tendem a dobrar seu poder de processamento a cada dois anos ou mais. Essa tendência está relacionado à Lei de Moore, que diz que os transistores dobram em poder a cada 18 meses. Vinge diz que a essa taxa, é apenas uma questão de tempo antes que os humanos construam uma máquina que possa pensar como um humano.

Mas o hardware é apenas uma parte da equação. Antes que a inteligência artificial se torne uma realidade, alguém terá de desenvolver um software que permita à máquina analisar dados, tomar decisões e agir autonomamente. Se isso acontecer, é possível que vejamos as máquinas começarem a projetar e contruir máquinas ainda melhores. Essas novas máquinas construiriam modelos mais rápidos e poderosos.

Os avanços tecnológicos se moveriam a um ritmo vertiginoso. Máquinas saberiam como melhorar a si mesmas. Humanos se tornariam obsoletos no mundo dos computadores. Nós teríamos criado uma inteligência super-humana. Avanços viriam mais rápido do que seríamos capazes de reconhecê-los. Em outras palavras, nós alcançaríamos a singularidade.

O que aconteceria então? Vinge diz ser impossível dizer. O mundo se tornaria uma paisagem tão diferente que podemos apenas fazer a mais espantosa das suposições. Vinge admite que embora não seja frutífero sugerir cenários possíveis, fazer isso é muito engraçado. Talvez nós vivamos em um mundo onde a consciência de cada pessoa se funda com uma rede de computadores. Ou talvez as máquinas cumpram todas as tarefas para nós e nos deixem viver uma vida de luxúria. Mas e se as máquinas virem os humanos como redundantes - ou pior? Quando as máquinas atingirem o ponto em que elas possam consertar a si mesmas, elas poderiam chegar à conclusão de que os humanos são não apenas desnecessários, mas também indesejados?

Podemos evitar que as máquinas tomem o poder?

Nem todo mundo pensa que estamos destinados - ou fadados - a atingir a singularidade detalhada no artigo de Vinge. Pode nem ser fisicamente possível alcançar os avanços necessários para criar o efeito da singularidade. Para entender isso, precisamos voltar à Lei de Moore.

Em 1965, Gordon E. Moore, um engenheiro de semicondutores, propôs o que nós agora chamamos de Lei de Moore. Ele notou que à medida que o tempo passava, o custa da fabricação dos componentes semicondutores caía. Em vez de produzir circuitos integrados com a mesma quantidade de poder que os anteriores pela metade do custo, os engenheiros se forçaram a empacotar mais transistores em cada circuito. A tendência se tornou um ciclo, que Moore predisse que continuaria até atingirmos os limites físicos do que chegamos com o sistema de um circuito elétrico integrado.

A observação original de Moore foi que o número de transístores em 6,45 cm quadrados de circuitos integrados dobraria a cada ano. Hoje, dizemos que a densidade de dados de um circuito integrado sobra a cada 18 meses. Fabricantes podem agora construir transistores em escala nanométrica. Microprocessadores recentes da Intel e da AMD têm transistores com 45 nanômetros de largura - um fio de cabelo humano pode ter um diâmetro de até 180 mil nanômetros.

Engenheiros e físicos não têm certeza de quanto tempo mais isso pode continuar. Gordon Morre disse em 2005 que estamos nos aproximando dos limites básicos do que podemos alcançar através da construção de transistores menores. Mesmo se encontrarmos uma maneira de construir transistores em escala de apenas alguns nanômetros,não quer dizer que eles funcionariam. Isso porque à medida que você se aproxima dessa escala minúscula, você tem de levar em consideração a física quântica.

Obedeça à lei

A Lei de Moore não é uma regra obrigatória nem é governada pela natureza. É uma profecia auto-realizável. Fabricantes de semicondutores se obrigam ao ritmo da Lei, o que a torna uma previsão acurada.

Acontece que quando você lida com coisas em escala subatômica, elas se comportam de formas que aparentemente contradizem o bom senso. Por exemplo, físicos mostraram que os elétrons podem passar através de material extremamente fino como se o material não existisse. Eles chamam esse fenômeno de tunelamento de elétrons ou tunelamento quântico. O elétron não faz um buraco físico no material - ele aparentemente apenas se aproxima de um lado e termina no outro. Como os transistores controlam o fluxo de elétrons como uma válvula, isso se torna um problema.

Se atingirmos esse limite físico antes que possamos criar máquinas que possam pensar tão bem quanto os humanos, podemos nunca chegar à singularidade. Embora haja outras avenidas que podemos explorar - como a construção vertical de chips usando ótica e experimentando com nanotecnologia -, não há garantias de que sejamos capazes de manter o ritmo da Lei de Moore. Isso pode não evitar a singularidade de vir, mas pode levar mais tempo do que diz a previsão de Vinge.

capazes de ser autoconscientes. Esses recursos podem até lembrar as três leis da robótica proposta por Isaac Asimov. Mas Vinge contra-argumenta apontando para um detalhe: se as máquinas forem mais espertas que nós, elas não serão capazes de descobrir formas de contornar essas regras? Mesmo Vinge não vai tão longe ao dizer que a singularidade é inevitável. Há muitos outros engenheiros e filósofos que pensam que isso não é um problema. Mas talvez você deva pensar duas vezes antes de maltratar uma máquina - nunca se sabe se ela virá atrás de você por vingança no futuro.


Fonte: https://pt.wikipedia.org
HOW STUFF
WORKSROBIN
HANSONVERNOR
VINGE
http://tecnologia.hsw.uol.com.br/