Artigo de Antonio Martins
Ao chegar a uma cidade desconhecida, você consulta, por voz, seu computador móvel – um celular, ou um aparato acoplado a seus óculos –, em busca de onde dormir. Ele informa, em timbre agradável, que, tendo em vista seu orçamento, vale tentar o hostel do lugar; e, claro, indica o caminho. Você quer saber mais: “Que fazer à noite”? Ouve proposta de uma festa ao ar livre: o sistema sabe que bailes funk não te animam. “Onde encontro o movimento contra a construção de um novo shopping-center?”, você indaga. Um ruído característico, criado para sugerir suavidade e proteção, sinaliza que os dados foram tirados do ar, por ordem judicial. Você reflete: valerá consultar as notícias locais? Que tipo de filtros as selecionarão? Será que também bloqueiam os blogs?
A cena é fictícia, mas talvez não por muito tempo. Do ponto de vista tecnológico,algumas das grandes corporações voltadas para a internet desenvolvem, há anos, sistemas cada vez mais sofisticados de inteligência artificial. O Google é, como seria de se prever, o mais avançado. Seus engenheiros trabalham com um paradigma trazido diretamente da ficção científica. Querem produzir algo como “o computador da Enterprise”, a nave-mãe da série Star Trek, segundo revela o jornalista Fahrad Manjoo, numa inqueitante reportagem que a revista Slate acaba de publicar.
Há três diferenças radicais entre a máquina do Enterprise e os sistemas de busca atuais, explica Manjoo. O sistema existente na ficção científica compreendia a voz humana e era capaz de manter conversações. Oferecia, a perguntas complexas, respostas precisas – algo muito distinto de uma coleção de links. E, ainda mais assombroso, era capaz de antecipar as perguntas do comandante da nave, por armazenar muito mais dados sobre situações presentes e passadas e acessá-los com rapidez imbatível.
Os caminhos para produzir sistemas assim existem no mundo real e já estão sendo trilhados. Eles foram abertos por algo chamado “aprendizagem profunda” (deep-learning, em inglês), um ramo avançado da “aprendizagem automática” (machine learning). Implica programar máquinas para funcionar como “redes neurônicas artificiais” – tornando-as capazes de agir como o cérebro humano e reconhecer padrões e conceitos, ao invés de simplesmente processar imensas quantidades de dados.
O esforço para tanto teve início ainda nos anos 1960, e viveu altos e baixos, conta o jornalista científico John Markoff, num texto de novembro passado, redigido para oNew York Times. Nos últimos meses, porém, os avanços têm sido surpreendentes. Máquinas programadas para aprender têm realizado notável progresso no reconhecimento da fala, no desenvolvimento de visão artificial e, em especial, na capacidade de realizar buscas conceituais, em imensas bases de dados, para resolver problemas intricados.
Há pouco, um programa criado por cientistas no Laboratório Suíço de Inteligência Artificial (IDSIA, em Lugano) superou seres humanos, numa disputa para “enxergar” e “reconhecer” sinais de trânsito. O diretor da instituição, Jürgen Schmidhuber, previu a possibilidade de, “num futuro não distante”, apontar o telefone celular para um placa, em qualquer idioma, e obter a tradução instantaneamente.
Servindo-se do mesmo tipo de tecnologia, o princiapal cientista da Microsoft, Richard F. Rashid, proferiu, em inglês, uma conferência em Tianjin (China) em outubro passado, num auditório escuro. Enquanto falava, um programa reconhecia suas palavras e as transcrevia, no idioma original, em um grande painel. E fez mais. A cada pausa de Rashid, o programa traduzia a fala para o mandarim no mesmo painel, e gerava uma simulação eletrônica de voz, neste segundo idioma. À mesma época, um grupo de estudantes da Universidade de Toronto, coordenada pelo cientista da computação Geoffrey Hinton, venceu um concurso da multinacional farmacêutica Merck, para encontrar moléculas capazes de gerar novas drogas. Nem os alunos de Hinton, nem ele próprio, tinha conhecimento algum sobre as moléculas farmacêuticas: limitaram-se a programar, usando técnicas de deep-learning.
Os gigantes da internet lutam intensamente para tirar proveito de tais avanços. Depois de ter adquirido a Siri Inc., em 2010, a Apple aposta muito alto num aplicativo de mesmo nome, que, além de reconhecer voz, compreende e executa tarefas simples. A Baidu, que mantém o sistema de buscas mais usado na China e o quinto site de maior audiência global, acaba de criar seu próprio laboratório de deep learning. Poderosa, decidiu instalá-lo no Silicon Valley, a cerca de cem quilômetros de San Francisco: quer tirar proveito da grande disponibilidade de cientistas e engenheiros muito talentosos e atualizados, formados na Califórnia.
O líder Google baseia-se em deep learning para construir e aperfeiçoar seus carros sem motorista e seus óculos-computadores – mas também para aperfeiçoar aplicações já disponíveis ao público. Há anos, o mecanismo de busca aprende, a cada pesquisa, a identificar as preferências do usuário – apresentando resultados personalizados a cada um. Desde junho do ano passado, o sistema está respondendo parte crescente das buscas, com o knowledge graph, uma ficha-resumo que aparece à direita da tela, ao lado da tradicional coleção de links (digite, por exemplo, Karl Marx, ou Vinícius de Moraes). Já há milhões de fichas disponíveis, todas construídas automaticamente pelo sistema. Amit Singhal, o engenheiro indiano que lidera a equipe de pesquisas da empresa, afirma: “posso imaginar um mundo em que não preciso mais pesquisar. Estou num lugar qualquer, ao meio-dia, e meu sistema recomenda imediatamente os restaurantes próximos de que vou gostar, porque servem comida apimentada”.
Quando existirem, tais sistemas (o Baidu trabalha no Baidu Eye, um projeto de óculos-computadores; a Apple, num relógio de características semelhantes, o iWatch…) terão, evidentemente, imenso impacto cultural, econômico e político. Eles reunirão, sobre cada usuário, um vastíssimo conjunto de informações pessoais. Além disso, funcionarão como uma espécie de cérebro auxiliar, conectado quase diretamente ao humano, cujo comportamento conhecerão e estarão “acostumados” a influenciar…
Não é, necessariamente, um cenário sombrio. A ultra-conectividade destes sistemas pode favorecer ações coletivas e conscientes instantâneas, com enorme potencial transformador. Alguém presencia o desrespeito a um direito ou liberdade (um ato de homofobia, ou uma ação policial truculenta, digamos) e convoca, sem demora, uma iniciativa de resistência, no local em que a ameaça se dá – compartilhando fotos, endereço e mapa. Num plano mais amplo, organiza-se uma manifestação internacional (por exemplo, contra as políticas de “austeridade” impostas pela oligarquia financeira); e se articulam protestos simultâneos para pressionar, até que cedam, as instituições e governantes que aplicam tais políticas.
Mas a perspectiva de que surjam sistemas mais capazes de influenciar as decisões individuais e coletivas dos seres humanos deveria reabrir um debate muitas vezes subestimado. Como influenciar os rumos da internet, para mantê-la livre e impedir que se converta em instrumento de controle social? De que modo assegurar sua neutralidade, frequentemente ameaçada pelos interesses comerciais de empresas de telecomunicação (leia artigo de Sérgio Amadeu)? Que atitude adotar diante de um gigante como Google, que multiplica o acesso a informação e a conectividade (e jogou papel decisivo numa das batalhas pela liberdade da rede), mas parece crescentemente influenciado pela lógica estrita de grande corporação? Como evitar que, no Brasil, autoridades locais (prefeitos, vereadores), ou o poder econômico continuem contando com o Judiciário para censurar a livre expressão de ideias, fechar blogs e intimidar seus autores pelo medo?
Sociedades mobilizadas e com vocação para a autonomia terão muito a ganhar, com os novos passos da inteligência artificial. Nas demais, ela pode ser uma tragédia.
Nenhum comentário:
Postar um comentário
Obrigada pela visita e pelo comentário!