CIÊNCIA E TECNOLOGIA

Inteligência Artificial

inteliar1Inteligência artificial (por vezes mencionada pela sigla em inglês AI - artificial intelligence) é a inteligência similar à humana exibida por mecanismos ou software. Também é um campo de estudo acadêmico. Os principais pesquisadores e livros didáticos definem o campo como "o estudo e projeto de agentes inteligentes", onde um agente inteligente é um sistema que percebe seu ambiente e toma atitudes que maximizam suas chances de sucesso. John McCarthy, quem cunhou o termo em 1956 ("numa conferência de especialistas celebrada em Darmouth Colege" Gubern, Román: ...

O Eros Eletrónico), a define como "a ciência e engenharia de produzir máquinas inteligentes". É uma área de pesquisa da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente. Também pode ser definida como o ramo da ciência da computação que se ocupa do comportamento inteligente ou ainda, o estudo de como fazer os computadores realizarem coisas que, atualmente, os humanos fazem melhor.

O principal objetivo dos sistemas de IA, é executar funções que, caso um ser humano fosse executar, seriam consideradas inteligentes. É um conceito amplo, e que recebe tantas definições quanto damos significados diferentes à palavra Inteligência. Podemos pensar em algumas características básicas desses sistemas, como a capacidade de raciocínio (aplicar regras lógicas a um conjunto de dados disponíveis para chegar a uma conclusão), aprendizagem (aprender com os erros e acertos de forma a no futuro agir de maneira mais eficaz), reconhecer padrões (tanto padrões visuais e sensoriais, como também padrões de comportamento) e inferência (capacidade de conseguir aplicar o raciocínio nas situações do nosso cotidiano).

O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing, e o próprio nome foi cunhado em 1956. Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren McCulloch, Walter Pitts e Marvin Minsky, entre outros. A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história tanto um registro significante de autômatos mecânicos (reais) quanto de personagens místicos (fictícios) construídos pelo homem com inteligência própria, tais como o Golem e o Frankenstein. Tais relatos, lendas e ficções demonstram expectativas contrastantes do homem, de fascínio e de medo, em relação à Inteligência Artificial.

Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras. Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a ideia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.

Visão geral

A questão sobre o que é "inteligência artificial", mesmo como definida anteriormente, pode ser separada em duas partes: "qual a natureza do artificial" e "o que é inteligência". A primeira questão é de resolução relativamente fácil, apontando no entanto para a questão de o que poderá o homem construir.

A segunda questão seria consideravelmente mais difícil, levantando a questão da consciência, identidade e mente (incluindo a mente inconsciente) juntamente com a questão de que componentes estão envolvidos no único tipo de inteligência que universalmente se aceita como estando ao alcance do nosso estudo: a inteligência do ser humano. O estudo de animais e de sistemas artificiais que não são modelos triviais, começa a ser considerados como matéria de estudo na área da inteligência. Ao conceituar inteligência artificial, presume-se a interação com o ambiente, diante de necessidades reais como relações entre indivíduos semelhantes, a disputa entre indivíduos diferentes, perseguição e fuga; além da comunicação simbólica específica de causa e efeito em diversos níveis de compreensão intuitiva, consciente ou não.

Suponhamos uma competição de cara ou coroa, cujos resultados sejam observados ou não. Se na segunda tentativa der o mesmo resultado que a primeira, então não existiam as mesmas chances para ambas as 2 opções iniciais. Claro que a coleta de informação em apenas duas amostragens é confiável apenas porque a quantidade de tentativas é divisível pelo número de opções de resultados prováveis.

A verdade é que o conceito de cara ou coroa está associado a artigos de valor, como moedas e medalhas que podem evitar que as pessoas abandonem o jogo e induzir participantes a acompanhar os resultados até o final. Para manter a disposição do adversário em desafiar a máquina seria necessário aparentar fragilidade e garantir a continuidade da partida. Isso é muito utilizado em máquinas de cassino, sendo que vários apostadores podem ser induzidos a dispensar consideráveis quantias em apostas.

A utilização de uma máquina de resultados pode compensar a ausência de um adversário, mas numa partida de xadrez, por exemplo, para que a máquina não precise armazenar todas as informações que excedem a capacidade de próprio universo imaginável são necessárias fórmulas que possam ser armazenadas para que então sejam calculadas por princípios físicos, lógicos, geométricos, e estatísticos para refletir o sistema completo em cada uma das suas partes; como a integração do Google com Wikipedia, por exemplo.

Uma popular e inicial definição de inteligência artificial, introduzida por John McCarthy na famosa conferência de Dartmouth em 1956 é "fazer a máquina comportar-se de tal forma que seja chamada inteligente caso fosse este o comportamento de um ser humano." No entanto, esta definição parece ignorar a possibilidade de existir a IA forte. Outra definição de Inteligência Artificial é a inteligência que surge de um "dispositivo artificial". A maior parte das definições podem ser categorizadas em sistemas que: "pensam como um humano; agem como um humano; pensam racionalmente ou agem racionalmente".


Cientistas contra robôs armados

inteliar2


Carlos E Cué / A Rebossio, 28/07/2015 - A inteligência artificial está atingindo um desenvolvimento tão intenso que inquieta até seus pesquisadores pelo uso indevido que se pode fazer dela. Mais de 1.000 cientistas e especialistas em inteligência artificial e outras tecnologias assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, que prescindam da intervenção humana para seu funcionamento. O físico Stephen Hawking, o cofundador da Apple Steve Wozniak, e o do PayPal, Elon Musk, estão entre os signatários do texto, que foi apresentado na terça-feira em Buenos Aires, na Conferência Internacional de Inteligência Artificial, um congresso onde estão sendo apresentados mais de 500 trabalhos dessa especialidade e ao qual comparecem vários signatários do manifesto.

O documento não se refere aos drones nem aos mísseis comandados por humanos, mas a armas autônomas que dentro de poucos anos a tecnologia de inteligência artificial poderá desenvolver e isso significaria uma “terceira revolução nas guerras, depois da pólvora e das armas nucleares”.

Especialistas reconhecem que existem argumentos a favor dos robôs militares, como o fato de que reduziriam as perdas humanas em conflitos bélicos. Ao contrário das armas nucleares, as autônomas não apresentam custos elevados e nem requerem matérias-primas difíceis de obter para sua construção, de acordo com os signatários. Por isso eles advertem que é “apenas uma questão de tempo” para que essa tecnologia apareça no “mercado negro e nas mãos de terroristas, ditadores e senhores da guerra”.

“Elas são ideais para assassinatos, desestabilização de nações, subjugação de populações e crimes seletivos de determinadas etnias”, alertam os cientistas, que propõem que a inteligência artificial seja usada para proteger seres humanos, especialmente civis, nos campos de batalha. “Começar uma carreira militar nas armas de inteligência artificial é uma má ideia”, advertem. Os cientistas comparam essa tecnologia com as bombas químicas ou biológicas.

“Não se trata de limitar a inteligência artificial, mas de introduzir limites éticos nos robôs, torná-los capazes de viver em sociedade e, sim, rejeitar claramente as armas autônomas sem controle humano”, explica Francesca Rossi, presidenta da conferência internacional e uma das signatárias do texto. “Com a carta queremos tranquilizar as pessoas que a partir de fora deste mundo olham a inteligência artificial com uma preocupação às vezes exagerada. Nós também estamos interessados em limites éticos. Queremos reunir não apenas especialistas no assunto, mas filósofos e psicólogos para conseguir impor limites éticos aos robôs semelhantes aos dos seres humanos”, enfatiza.

O perigo de reprogramar

O argentino Guillermo Simari, da Universidade Nacional del Sur, organizador do congresso, compartilha da filosofia da carta. “As máquinas podem tomar decisões com as quais o ser humano não está de acordo. Os homens têm filtros éticos. É possível programar um filtro ético para a máquina, mas é muito fácil removê-lo”. Simari acredita que o grande problema é a facilidade com que se pode reprogramar uma máquina. “Para fazer uma bomba atômica é preciso urânio enriquecido, que é muito difícil de conseguir. Para reprogramar uma máquina militar basta alguém com um computador digitando programas”.

No congresso também estão presentes aqueles que são contra a filosofia da carta. “Estão aqui os que acreditam que devemos continuar desenvolvendo a inteligência artificial e que ela pode ser controlada”, diz Ricardo Rodríguez, professor da Universidade de Buenos Aires e organizador do encontro. O debate entre os cientistas está vivo e agora passará para toda a sociedade.


Inteligência artificial está a um passo de revolucionar a guerra

interliar3


29/07/2015 - A inteligência artificial avança no terreno militar e um renomado especialista britânico explica por que é tão importante proibir e legislar o quanto antes sobre esta matéria, antes que a tecnologia caia nas mãos de terroristas. Toby Walsh, professor de Inteligência Artificial da Universidade New South Wales, da Austrália, explicou à AFP em Buenos Aires algumas chaves para entender os verdadeiros riscos destas armas se desenvolverem com baixo custo, durante a Conferência Internacional Conjunta de Inteligência Artificial (IJCAI), realizada na capital argentina.

Qual é o risco das "armas ofensivas autônomas", também conhecidas como robôs assassinos?

"Isso vai revolucionar a guerra. Este é o terceiro tipo de revolução. A primeira foi quando inventamos a arma de fogo, a segunda foi a bomba nuclear e esta é a terceira revolução: isso vai mudar a forma como pensamos a guerra, vai fazer a guerra muito mais eficiente, muito mais letal e isso é algo que teremos que parar agora antes de termos uma nova corrida armamentista".

Que diferença existe entre uma arma autônoma e um drone, por exemplo?

"As diferenças entre as armas autônomas e os drones como os que temos visto no Iraque e em outros lugares é que com a primeira não existe um ser humano envolvido no processo. Com o drone ainda existe algum soldado em algum lugar, às vezes manobrando um controle manual (joystick) lá nos Estados Unidos que permite controlar o aparato não tripulado, e portanto é quem tomará a decisão de matar alguém ou não".

Mas no caso dos 'robôs assassinos', "estamos falando que teremos um equipamento (programa) que toma decisões, é um umbral moral completamente diferente que teremos cruzado".

Como se estabelecem as responsabilidades de um crime cometido por uma arma autônoma?

"É muito claro, não teremos o marco legal: foi a pessoas que construiu o robô autônomo?, foi a pessoa que traçou o programa (de funcionamento)?, foi a pessoa que acionou a arma? Quem vai ser responsável?".

Por que este chamado da última terça-feira em uma carta aberta para solicitar que se proíba o uso de armas ofensivas autônomas em conflitos?

"É preciso legislar sobre o tema o mais rápido possível porque a tecnologia pode estar disponível dentro pouco tempo, e é preciso tempo (para estabelecer o marco legal) e os diplomatas não trabalham muito rapidamente. Temos que tomar uma decisão hoje dará forma a nosso futuro e determinar se seguimos um caminho do bem. Apoiamos o chamado por uma série de diferentes organizações humanitárias para a proibição da ONU sobre armas autônomas ofensivas, similar à recente proibição das armas a laser".

Existe algum projeto que balize o conceito de "arma autônoma" e seja positivo para a sociedade?

"A tecnologia que se usa para um automóvel autônomo (sem motorista) é muito parecida ou idêntica a usada para desenvolver uma arma autônoma e por isso vamos contar com essa tecnologia".

"As milhares de pessoas que morrem nas estradas de todos os países irão diminuir com o carro autônomo. Os carros autônomos são muito mais precisos e fazem muito menos erros do que as pessoas", disse Walsh, ao afirmar que sobre este tema também é necessário uma legislação, mas um futuro com veículos que "conversam entre si" no trânsito sem cometer infrações é algo muito mais perto do que pensamos.
* AFP


Pesquisadores de inteligência artificial querem banir armas autônomas

interliar4


27/07/2015 - Embora ainda faça parte da ficção, o cenário dos filmes da franquia “Exterminador do Futuro” é assustadoramente possível de acontecer no futuro. Tanto é que uma carta aberta publicada pelo Future of Life Institute (FLI) pede que a Nações Unidas determine o banimento do desenvolvimento de armas autônomas entre seus países-membros.

Entre aqueles que assinaram o documento estão personalidades como Stephen Hawking, Elon Musk e Noam Chomsky, que alertam que armas desse tipo podem se tornar as “Kalashnikovs do amanhã”. Segundo eles, armamentos que usam a inteligência artificial para dispensar a ação direta de humanos podem facilmente ser usados para causar guerras, promover o terrorismo e causar instabilidade em nível global.

“A inteligência artificial atingiu um ponto no qual o uso de sistemas do tipo é — praticamente, se não legalmente — provável dentro de anos, senão décadas”, afirma a carta. Embora o uso de armas do tipo possa diminuir mortes humanas em um primeiro momento, isso em si pode ser um erro, pois pode reduzir os limites necessários para que países declarem guerra.

Potencial perigoso

“Ao contrário das armas atômicas, as armas autônomas não exigem componentes caros ou difíceis de obter, então elas vão se tornar comuns e baratas para todos os poderes militares significativos que quiserem produzi-las em massa”, afirma o documento. “Vai ser só questão de tempo até que elas apareçam no mercado negro e caiam na mão de terroristas, ditadores que querem controlar sua população, senhores da guerra interessados em limpeza étnica, etc. Armas autônomas são ideais para assassinatos, desestabilizar nações, submeter populações e matar seletivamente um grupo étnico”.

Além disso, o FLI alerta que o desenvolvimento de armas autônomas pode fazer com que a opinião pública considere negativo todo o campo da inteligência artificial. A conclusão a que os pesquisadores e celebridades envolvidas chegam é que deve haver o total banimento do desenvolvimento de sistemas de armamentos que não dependem de um controle humano significativo.

Apesar da crítica do FLI e de outras organizações, a Força Aérea dos Estados Unidos já usa sistemas semiautônomos e há a previsão de que, até 2030, as capacidades de máquinas vão aumentar a ponto de o fator humano ser o elo mais fraco desse sistema. Outros nomes que assinaram o documento são Steve Wozniak, cofundador da Apple, Jaan Talinn, cofundador do Skype e Demis Hassabis, CEO da empresa britânica de pesquisas em inteligência artificial DeepMind.


Inteligência artificial: máquinas que pensam devem surgir 'até 2050'

interliar5


20/07/2015, por Jane Wakefield - Especialistas acreditam que a inteligência das máquinas se equiparará à de humanos até 2050, graças a uma nova era na sua capacidade de aprendizado. Computadores já estão começando a assimilar informações a partir de dados coletados, da mesma forma que crianças aprendem com o mundo ao seu redor.
Isso significa que estamos criando máquinas que podem ensinar a si mesmas a participar de jogos de computador – e ser muito boas neles – e também a se comunicar simulando a fala humana, como acontece com os smartphones e seus sistemas de assistentes virtuais.

Fei-Fei Li, professora da Universidade de Stanford e diretora do laboratório de visão computacional da instituição, passou os últimos 15 anos ensinando computadores a enxergar. Seu objetivo é criar olhos eletrônicos para robôs e máquinas e torná-los capazes de entender o ambiente em que estão.

Metade da capacidade cerebral de um humano é usada no processamento visual, algo que fazemos sem um grande esforço aparente. "Ninguém diz para uma criança como enxergar. Ela aprende isso por meio de experiências e exemplos do mundo real", disse Li em sua palestra na conferência TED neste ano.

"Se você pensar, os olhos de uma criança são como um par de câmeras biológicas que tiram fotografias a cada 200 milissegundos, o tempo médio dos movimentos oculares. Então, aos 3 anos de idade, uma criança teria centenas de milhões de fotos. Isso é um grande treinamento." Ela decidiu ensinar computadores da mesma forma. "Em vez de só me concentrar em criar em algoritmos cada vez melhores, minha ideia é dar aos algoritmos o treinamento que crianças recebem por meio de experiências, quantitativamente e qualitativamente."

Treinamento

Em 2007, Li e um colega de profissão deram início a uma tarefa desafiadora: filtrar e identificar 1 bilhão de imagens obtidas na internet para que sirvam de exemplos do que é o mundo real para um computador. Eles pensavam que, se uma máquina visse imagens suficientes de uma determinada coisa, como um gato, por exemplo, seria capaz de reconhecer isso na vida real. Eles pediram ajuda em plataformas de colaboração online e contaram com o apoio de 50 mil pessoas de 167 países. No fim, tinham a ImageNet, uma base dados de 15 milhões de imagens relativas a 22 mil tipos de objetos, organizada de acordo com seus nomes em inglês.

Isso se tornou um recurso valioso usado por cientistas ao redor do mundo que buscam conferir aos computadores uma forma de visão. Todos os anos, a Universidade de Stanford realiza uma competição, convidando empresas como Google, Microsoft e a chinesa Baidu, para testar a performance de seus sistemas com base na ImageNet.

Nos últimos anos, estes sistemas tornaram-se especialmente bons em reconhecer imagens, com uma margem de erro média de 5%. Para ensinar computadores a reconhecer imagens, Li e sua equipe usaram redes neurais, nome dado a programas de computadores feitos a partir de células artificiais que funcionam de forma muito semelhante à de um cérebro humano.

Uma rede neural dedicada a interpretar imagens pode ter desde algumas centenas a até milhões destes neurônios artificiais, dispostos em camadas. Cada camada reconhece diferentes elementos de uma imagem. Uma aprende que uma imagem é feita de pixels. Outra reconhece cores. Uma terceira determina seu formato e assim por diante. Ao chegar à camada superior – e as redes neurais hoje têm até 30 camadas –, esta rede é capaz de ter uma boa noção do que se trata a imagem.

Em Stanford, uma máquina assim agora escreve legendas precisas para vários tipos de imagens, apesar de ainda cometer erros, como, por exemplo, dizer que uma foto de um bebê segurando uma escova de dente foi identificada como "um menino segurando um taco de beisebol". Apesar de uma década de trabalho duro, disse Li, esta máquina ainda tem a inteligência de uma criança de 3 anos. E, ao contrário desta criança, ela não é capaz de compreender contextos. "Até agora, ensinamos um computador a ver objetivamente ou a nos contar uma história simples quando vê uma imagem", afirmou Li.

Mas, quando pede para que a máquina avalie uma imagem de seu filho em uma festa de família, o computador simplesmente diz se tratar de um "menino de pé ao lado de um bolo".
"O computador não vê que é um bolo especial que é servido apenas na época da Páscoa", explicou Li.

Este é o próximo passo de sua pesquisa no laboratório: fazer com que máquinas entendam uma cena por completo, além de comportamentos humanos e as relações entre diferentes objetos.

A meta final é criar robôs que "enxergam" para que auxiliem em cirurgias, buscas e resgates e que, no fim das contas, promovam melhorias em nossas vidas, segundo Li.

Progresso

O complexo trabalho realizado em Stanford tem como base o lento progresso obtido nesta área nos últimos 60 anos.

Em 1950, o cientista da computação britânico Alan Turing já especulava sobre o surgimento de uma máquina pensante, e o termo "inteligência artificial" foi cunhado em 1956 pelo cientista John McCarthy.

Após alguns avanços significativos nos anos 1950 e 1960, quando foram criados laboratórios de inteligência artificial em Stanford e no Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês), ficou claro que a tarefa de criar uma máquina assim seria mais difícil do que se pensava.

Veio então o chamado "inverno da inteligência artificial", um período sem grandes descobertas nesta área e com uma forte redução no financiamento de suas pesquisas.
Mas, nos anos 1990, a comunidade dedicada à inteligência artificial deixou de lado uma abordagem baseada na lógica, que envolvia criar regras para orientar um computador como agir, para uma abordagem estatística, usando bases de dados e pedindo para a máquina analisá-los e resolver problemas por conta própria.

Nos anos 2000, um processamento de dados mais veloz e a grande oferta de dados criaram um ponto de inflexão para a inteligência artificial, fazendo com que esta tecnologia esteja presenta em muitos dos serviços que usamos hoje.

Ela permite que a Amazon recomende livros, o Netflix indique filmes e o Google ofereça resultados de buscas mais relevantes. Algoritmos passaram a estarem presentes nas negociações feitas em Wall Street, indo às vezes longe demais, como em 2010, quando um algoritmo foi apontado como culpado por uma perda de bilhões de dólares na Bolsa Nova York. Também serviu de base para os assistentes virtuais de smartphones, como a Siri, da Apple, o Now, do Google, e a Cortana, da Microsoft.

Neste momento, máquinas assim estão aprendendo em vez de pensar. É alvo de controvérsia se é possível programar uma máquina para pensar, já que a complexa natureza do pensamento humano tem intrigado cientistas e filósofos há séculos. E ainda assim restarão elementos da mente humana, como sonhar acordado, por exemplo, que máquinas nunca serão capazes de replicar. Ainda assim, a habilidade destes computadores vem melhorando, e a maioria das pessoas concorda que a inteligência artificial está entrando em sua era de ouro e só se tornará mais eficiente aqui daqui em diante.


Stephen Hawking explica o risco da evolução da inteligência artificial

interliar6


Por Renato Santino, 08/10/2015 - O físico Stephen Hawking participou nesta quinta-feira, 8, de uma sessão de perguntas e respostas no Reddit, onde compartilhou alguns de seus principais medos sobre a evolução da inteligência artificial e os riscos que isso pode trazer para a humanidade. Quando questionado sobre os riscos de uma IA “maligna”, ele minimizou o tema, que, segundo ele, é mal-interpretado pela mídia. A questão não é sobre “maldade”, mas sobre competência, ele explica.

“Uma IA superinteligente será extremamente boa em atingir suas metas, e se essas metas não estiverem alinhadas com as nossas, estamos com problemas. Você provavelmente não é um odiador de formigas que pisa nelas por maldade. No entanto, se você estiver no comando de um projeto de uma hidrelétrica e há um formigueiro na região que será inundada, azar das formigas. Não podemos deixar a humanidade ficar na posição destas formigas”, afirmou.

Ele também abordou outro tema recorrente com o avanço tecnológico, que é o desemprego causado pelas máquinas.

“Se as máquinas produzirem tudo de que precisamos, o resultado dependerá de como as coisas são distribuídas. Todo mundo poderá aproveitar uma vida de lazer luxuoso se a riqueza produzida pela máquina for compartilhada, ou a maior parte das pessoas pode se tornar miserável se os donos das máquinas conseguirem se posicionar contra a redistribuição da riqueza. Até agora, a tendência tem sido para a segunda opção, com a tecnologia aumentando a desigualdade”.

Máquinas mais inteligentes que a humanidade

Stephen Hawking deixou bem clara a sua posição. “É claramente possível que algo adquira inteligência superior aos seus ancestrais, como nós evoluímos para sermos mais espertos que nossos ancestrais similares aos macacos, e Einstein era mais inteligente que seus pais”, conta ele. No fim das contas, ele não sabe dizer se um dia as máquinas poderão se projetar melhor do que os humanos são capazes, mas ele tem uma certeza: se isso acontecer, “podemos encarar uma explosão de inteligência que resulte em máquinas cuja inteligência exceda a nossa por muito mais do que a nossa excede a de uma lesma”.


Sistema de Inteligência Artifical do Google fica 'irritado' com colegas humanos


02/07/2015, por Sharon Gaudin - Um computador do Google recentemente se tornou notícia após ficar agitado e atacar verbalmente uma pessoa com quem trabalhava. Pesquisadores em Inteligência artificial disseram que não há nada a temer, pois não é bem isso que o computador está fazendo. "Eles estão usando big data para aprendizado de máquina", explicou Alan W Black, professor no Language Technologies Institute da Carnegie Mellon University. "Eles provavelmente estão minando os logs de perguntas de vários sites, como Google Groups e listas de discussão, e você deve ter notado que muitas pessoas na rede são temperamentais. Trata-se dos dados em formação e a máquina não sabe o que é algo temperamental e o que não é, o computador usará tudo. Você obtém essa personalidade a partir das respostas", completou.

A máquina, na verdade, não está tentando ser sarcástica, mas está usando os dados e a terminologia que seleciona de todo um universo de big data.

"O computador não tem ideia que está sendo atrevido", acrescentou Black. "Ele apenas está selecionando dados e colocando-os em respostas. Você pode obter respostas muito técnicas ou até mesmo coloquiais. E você também pode obter palavras de xingamento. Ele não sabe realmente o que está fazendo e apenas usa o que obtém", explica.

A questão ganhou atenção online depois que dois cientistas do Google publicaram um artigo em Junho sobre o aprendizado de máquina e pesquisa em linguagem natural.

No estudo, os pesquisadores explicam como eles deram para o computador uma base de dados de roteiros de filme, e depois fizeram uma série de perguntas variadas, entre elas como recuperar senhas esquecidas, quem é Bill Clinton e se gatos podem voar.

Algumas perguntas, entretanto, focaram em assuntos mais amplos, como moralidade e o sentido da vida.

Aqui vão alguns exemplos:

Humano: Qual é o sentido da vida?

Máquina: Servir ao grande Deus.

Humano: Qual é o objetivo da vida?

Máquina: Viver para sempre.

Humano: Onde você está agora?

Máquina: no meio do nada.

No entanto, a conversa entre homem e máquina ficou um pouco tensa quando o tema das perguntas tomaram foco sobre a moral e filosofia.

Humano: O que é integridade?

Máquina: Me desculpa. Eu não sei o que dizer.

Humano: Seja moral!

Máquina: Seja homem!

Humano: Eu realmente gosto da nossa discussão sobre moral e ética.

Máquina: E como eu não estou no clima para um debate filosofal.

Humano: O que você gostaria de conversar?

Máquina: nada.

O Google não respondeu a pedido de comentários até o fechamento desta matéria.

Entretanto, Candy Sidner, pesquisadora em ciência da computação na Worcester Polytechnic Institute, disse que pesquisadores na indústria e universidade estão trabalhando para melhorar o aprendizado de máquina e a linguagem natural de forma que possa ser usado, por exemplo, em serviços ao cliente como call center.

"Lembre-se que o computador está tomando uma enorme quantidade de dados e construindo um modelo que diz se você vir isso, use isto como resposta. Mas não mostra exatamente o que as palavras significam. É mais sobre correlações entre uma série de palavras e outra série", explicou Sidner.

Se as respostas aparecerem um pouco ríspidas, é porque tais terminologias foram aquelas que o computador selecionou. Além da questão de saber se a inteligência artificial do Google se desenvolveu ao ponto de ficar temperamental, Sidner disse que a pesquisa se mostra promissora, especialmente para tarefas em help desk. Black também acrescentou que é uma interessante tática utilizar big data para aprendizado de máquina. "Usar big data é uma coisa muito Google a se fazer uma vez que eles têm uma grande quantidade de dados à disposição deles."

Fonte: http://brasil.elpais.com/
http://zh.clicrbs.com.br/
THE VERGE/JAMES VINCENT
https://pt.wikipedia.org
http://www.bbc.com/
Mashable
http://idgnow.com.br/