Melanie Mitchell leva a pesquisa de Inteligência Artificial de volta às raízes


Para construir uma inteligência artificial geral, podemos precisar saber mais sobre nossas próprias mentes, argumenta a cientista da computação Melanie Mitchell.

Melanie Mitchell, professora de complexidade no Santa Fe Institute e professora de ciência da computação na Portland State University, reconhece as poderosas realizações das redes neurais de aprendizado profundo de “caixa preta”. Mas ela também acha que a pesquisa de inteligência artificial se beneficiaria mais em voltar às suas raízes e trocar mais ideias com pesquisas sobre cognição em cérebros vivos. Esta semana, ela fala com o apresentador Steven Strogatz sobre os desafios de construir uma inteligência geral, por que devemos pensar sobre a raiva dos carros autônomos na estrada e por que os IAs podem precisar de bons pais.

Melanie Mitchell: Sabe, você dá uma nova cara, digamos, e ela lhe dá uma resposta: “Oh, esta é Melanie”. E você diz: “Por que você achou isso?” “Bem, por causa desses bilhões de números que acabei de computar.”

Steve Strogatz: Da Quanta Magazine, este é The Joy of x. Eu sou Steve Strogatz. Neste episódio: Melanie Mitchell.

Mitchell: E eu fico tipo, “Bem, eu não entendo – você pode dizer mais?” E eles disseram: “Não, não podemos dizer mais nada.”

Steve Strogatz: Não é enervante que seja um grande virtuoso nessas tarefas estreitas, mas não tem capacidade de se explicar?

Strogatz: Melanie Mitchell é uma cientista da computação particularmente interessada em inteligência artificial. Sua opinião sobre o assunto, porém, é um pouco diferente de muitos de seus colegas hoje em dia. Ela realmente pensa que o assunto pode estar à deriva e fazer as perguntas erradas. E, em particular, ela acha que seria melhor se a inteligência artificial pudesse voltar às suas raízes ao fazer laços mais fortes com áreas como ciência cognitiva e psicologia, porque esses computadores artificialmente inteligentes, embora sejam inteligentes, são de certa forma inteligentes isso é tão diferente da inteligência humana.

Melanie ficou intrigada com essas perguntas por um bom tempo, mas sua jornada começou a sério quando ela topou com um livro muito grande e muito importante que foi publicado em 1979.

Mitchell: Então, me formei em matemática. Eu realmente não sabia o que queria fazer. Eu estava ensinando matemática no colégio e li um livro chamado Gödel, Escher, Bach: An Eternal Golden Braid, que é um título muito pesado de Douglas Hofstadter. Em última análise, o livro era sobre como a inteligência, algo como a inteligência, pode emergir de algo como o cérebro, já que ele tem cerca de 100 bilhões de neurônios. E os neurônios individuais não são inteligentes, então, de alguma forma, esse fenômeno que não entendemos muito bem, mas que valorizamos muito, é emergente desse sistema complexo. E isso é o que Gödel, Escher, Bach realmente significavam, como isso poderia acontecer.

Então, fiquei impressionado com isso e pensei: “Isso é …” Você sabe, e também era sobre como poderíamos ser capazes de fazer isso em máquinas. Então, eu li este livro. É um livro muito longo, talvez 700 páginas ou algo assim.

Strogatz: Uau.

Mitchell: É muito complicado, mas eu estava … Simplesmente transformou minha vida, e decidi que precisava me tornar um pesquisador de IA. Eu nunca tinha feito uma única aula de ciência da computação.

Strogatz: Depois de ler este livro, o que você decidiu fazer? Quero dizer, o que você faria a respeito?

Mitchell: No final do ano, decidi que iria parar de lecionar e estava morando em Nova York, mas decidi me mudar para Boston. E eu consegui um emprego fazendo, na verdade, algum trabalho de computador em um laboratório de astronomia em Harvard. Isso me permitiu fazer algumas aulas de ciência da computação.

Strogatz: Hmm.

Mitchell: Mas, surpreendentemente, eu estava realmente no campus da M.I.T. um dia, vi um pôster anunciando uma palestra sobre Douglas Hofstadter. Eu estava tipo, “Oh, meu Deus, eu tenho que ir para isso. Isto é incrível.”

Strogatz: Sim?

Mitchell: Porque eu já tinha me inscrito … Eu me inscrevi para a pós-graduação e me inscrevi para onde ele estava na Universidade de Indiana. E eu tinha escrito para ele, perguntando, você sabe, se eu poderia ir trabalhar com ele, e ele nunca respondeu. E então, fui para a palestra e esperei na fila para falar com ele, você sabe, com uma enorme multidão de pessoas, a maioria delas querendo da mesma forma entrar em IA. Eu conversei com ele e ele – você sabe, ele foi muito legal, mas não deu em nada.

Então, comecei a ligar para o escritório dele e deixava mensagens para ele. E ele nunca respondeu. Então, eu percebi – ele nunca estava lá quando eu liguei, então eu imaginei que se ele não estivesse lá durante o dia, ele deveria estar lá à noite. Então, liguei para ele uma vez, tipo 22:00, e ele atendeu o telefone imediatamente. Ele estava super – de super bom humor. E eu perguntei a ele se eu poderia vir e falar com ele sobre ser seu aluno, e ele disse: “Claro, venha amanhã.”

Strogatz: Existe uma boa inteligência geral bem aí.

Mitchell: Exatamente, exatamente.

Strogatz: Mas – então, realmente – então, espere. Ele está … Então, ele está em licença sabática ou o que quer que seja. Ele está em Boston. Você acabou de dizer: “Posso ir?” “Sim, venha.”

Mitchell: Sim, então eu vim, conversamos e ele me convidou para trabalhar para ele.

Strogatz: Espere um segundo. Tem que haver um pouco que você está deixando de fora. Ele disse: “Quem é você?” Quero dizer, ele –

Mitchell: Bem, conversamos um pouco e eu falei sobre minha experiência e, você sabe, por que estava interessado no que ele estava fazendo, e ele me contou um pouco sobre os projetos em que estava trabalhando. E ele me contratou primeiro como estagiário de verão, e depois ele estava se mudando para a Universidade de Michigan, então eu fiz uma inscrição de última hora para a pós-graduação lá, eles me aceitaram e eu fui.

Strogatz: Agora, durante tudo isso, sua família estava por dentro?

Mitchell: Um pouco, sim. Eles estavam … quero dizer, minha família já tinha se acostumado a eu ser – fazer coisas não convencionais.

Strogatz: Sério?

Mitchell: Sim.

Strogatz: Quais foram algumas outras no seu passado?

Mitchell: No primeiro ano após a faculdade, passei um ano como voluntário no movimento pela paz na Irlanda do Norte. Agora, minha família pirou completamente com isso. Eles pensaram que era uma loucura.

Strogatz: Perigoso demais?

Mitchell: Sim. Mas, na verdade, quero dizer, o engraçado foi … Porque eu passei um ano fazendo isso, e quando eu estava voltando para um trabalho em Nova York, todas as pessoas que eu conhecia em Belfast estavam dizendo: “Como você pode ir a tal uma cidade perigosa? ” de qualquer forma, a coisa que – minha experiência na Irlanda do Norte, particularmente, intrigou Doug Hofstadter.

Strogatz: Sério? Huh.

Mitchell: Acho isso muito mais do que qualquer experiência científica que tive.

Strogatz: Tenho a sensação de ler suas coisas que ele admiraria o destemor.

Mitchell: E talvez a coragem de ligar para ele no meio da noite.

Strogatz: Isso também.

Mitchell: Talvez ninguém mais tenha tentado isso.

Strogatz: Algo. Ok, tanto faz – você fez a coisa certa. E depois o que aconteceu? Então, você está trabalhando com ele – bem, então ele está em Michigan. Ele se mudou de Indiana. Você se mudou para ser um estudante de graduação em Michigan.

Mitchell: Sim. Então, sim, fiz pós-graduação e meu projeto era desenvolver um programa de computador que pudesse fazer analogias. Então, esse era o maior interesse de Hofstadter, e ele achava que isso era realmente o importante na inteligência, era a capacidade de fazer analogias. E, você sabe, ele não quis dizer analogias como, você sabe, que costumávamos ter no SAT: Sapato é para pé como luva é para branco. Eles costumavam ter …

Strogatz: Certo.

Mitchell: Ele estava pensando mais nos tipos de analogias inconscientes que fazemos o tempo todo. Quando seu amigo lhe conta uma história e você diz: “Ah, sim, a mesma coisa aconteceu comigo”. Eles dizem algo sobre, você sabe, eles tiveram uma discussão com a esposa sobre carregar a máquina de lavar louça, e você diz: “Sim, a mesma coisa aconteceu comigo”. Mas você não teve uma discussão com a esposa sobre carregar a máquina de lavar louça. Você está mapeando isso para o seu mundo.

Strogatz: Certo.

Mitchell: E esse tipo de coisa – isso é invisível para nós em nossa vida diária normal, que estamos constantemente fazendo analogias. E isso é o que ele queria experimentar e modelar em um computador.

Strogatz: Quando Melanie e seu antigo conselheiro Douglas Hofstadter falam de analogias, eles estão usando o termo de uma forma um pouco diferente de como a maioria de nós o usaria. Eu diria que o que eles realmente têm em mente são situações análogas, como quando uma situação é igual a outra de alguma forma. Por exemplo, você sabe, pode ser algo que o lembra de outra coisa. Como se você ouvisse uma música e pensasse: “Ah, sim, isso me lembra aquela velha música dos Beatles”. Há algo nele que o lembra – poderia ser tocado de uma maneira totalmente diferente, mas você reconhece a semelhança essencial, que é basicamente a mesma coisa.

Mitchell: Analogia é o processo de chegar à essência do que você quer dizer. E isso é algo em que nós, humanos, somos muito bons, mas ninguém descobriu como fazer com que os computadores sejam bons nisso ainda.

Strogatz: Hmm. E você usou a palavra “significa”, é claro, que é a essência aqui, não é? Isso – o que significa? “Não foi isso que eu quis dizer” ou “Eu quis dizer isso”.

Mitchell: Certo, e isso é difícil de definir. O que significa? Você sabe, eu posso entender o que você quer dizer quando está falando comigo, porque compartilhamos uma espécie de experiência comum de conhecimento sobre o mundo. E a cultura comum e cérebros semelhantes provavelmente, você sabe, já que ambos somos humanos. Tivemos experiências semelhantes. Mas como você dá a um computador a capacidade de fazer isso? Isso é muito difícil.

Strogatz: Então, você disse que seu projeto de dissertação era sobre isso, para tentar desenvolver um – o que, um software que pudesse …?

Mitchell: Sim. Então, o primeiro problema é dizer: “Bem, que problema temos que resolver?” Então, Doug Hofstadter desenvolveu este – o que ele chamou de – o programa foi chamado de Copiador, porque sua ideia era que fazer analogia é ser um copiador. É como fazer a mesma coisa, mas em uma situação diferente. Ele havia desenvolvido esse tipo de domínio ou mundo para Copycat que envolvia analogias entre sequências de letras.

Strogatz: Então, Melanie, neste programa Copycat, tentou inventar uma espécie de programa para explorar analogias, mas dentro de um computador. Você realmente não pode pedir a um computador para tentar fazer analogias tão complicadas como, digamos, comparações musicais ou encontrar situações análogas na vida real. Esses são muito ricos para a inteligência artificial lidar no momento. Mas o que eles podem fazer é resolver quebra-cabeças, quebra-cabeças de analogia sobre sequências de letras. Tipo, aqui está um que é um clássico no Copycat. ABC está para PQR como ABD está para quê? Então, você sabe, esse é um pequeno quebra-cabeça interessante. Você pode pensar em como responderia. Mas os computadores também podem pensar sobre isso, nesses mundos muito restritos de apenas sequências de letras. E o que é interessante é que, observando como eles respondem, podemos começar a aprender como eles fazem analogias. Podemos começar a entender o que eles pensam.

E não é que estejamos tão interessados em strings de letras. Quero dizer, o ponto de Melanie é que estamos interessados neste amplo problema de como você pode sondar analogias dentro de uma inteligência artificial e, assim, chegar à essência do que é o significado na vida real.

Outra coisa sobre Melanie é que ela fornece um corretivo muito necessário para muito do hype que ouvimos hoje em dia sobre inteligência artificial. Lembro-me de uma conversa com ela que tive no Twitter, em que falava sobre um avanço relacionado a um programa chamado AlphaZero, um programa de xadrez que jogava jogos realmente bonitos e intuitivos. E isso me fez pensar, e até escrevi sobre isso no The New York Times, que talvez esses programas possam ir além de jogar xadrez para realmente fazer ciência. Bem, Melanie derramou um pouco de água fria séria nessa ideia e ajudou a me endireitar.

Mitchell: Esta é uma das coisas mais surpreendentes sobre a inteligência artificial hoje, é que o quão bem esses sistemas podem fazer nessas tarefas estreitas particulares que se um humano pudesse fazer isso, bem, diríamos: “Rapaz, essa pessoa é realmente brilhante . ” E presumiríamos que eles poderiam ser brilhantes em muitas áreas. E se eles tivessem uma intuição incrível sobre Go, poderíamos pensar: “Bem, eles provavelmente poderiam ter intuição sobre outras coisas”. Mas o estranho é que essas máquinas não parecem ser capazes de transferir o que aprenderam ou seu brilhantismo sobre xadrez ou Go, ou ir para qualquer outra área – transcrevendo a linguagem falada e mapeando rotas para nós em nossos carros, e todas as coisas que essas máquinas fazem tão bem. Parece que você precisa de inteligência geral para fazer essas coisas bem. Mas acontece que você não, que AlphaGo e AlphaZero não parecem ser capazes de transferir o que – seu tipo de brilho para qualquer outro domínio além daquele em que foram treinados.

Agora, uma coisa sobre – você sabe, você meio que insinuou que se uma máquina pudesse ser tão brilhante e tivesse tanta intuição incrível sobre jogar xadrez, por exemplo, talvez pudesse fazer o mesmo com a ciência. Mas xadrez e ciência são muito diferentes.

Strogatz: Sim.

Mitchell: Você sabe, o xadrez tem regras específicas e tipos de estados discretos, o que significa que o tabuleiro está em um determinado estado a qualquer momento, e há apenas um número relativamente pequeno de movimentos possíveis que você pode fazer em qualquer turno.

Strogatz: Verdade, sim. Verdadeiro.

Mitchell: Então, nesse sentido, é muito diferente do mundo real, no qual há apenas um número aparentemente infinito de possibilidades, e não é restrito da mesma maneira. Nos primeiros dias da IA, muitas pessoas acreditavam que se uma máquina pudesse jogar xadrez, ela teria que ter inteligência geral, inteligência de nível humano.

Strogatz: Então, quando você se refere à inteligência geral, isso é – ao contrário de quê, inteligência estreita ou o quê?

Mitchell: Sim, acho que é uma espécie de palavra da moda em IA, e significa que o objetivo da IA, pelo menos o objetivo original, era ter uma máquina que pudesse ser como um humano, em que a máquina pudesse fazer muitas tarefas e poderia aprender algo em um domínio, como se eu aprendesse a jogar damas, talvez isso me ajudasse a aprender melhor como jogar xadrez ou outros jogos semelhantes, ou mesmo que eu pudesse usar coisas que aprendi no xadrez em outras áreas de vida, que temos a capacidade de generalizar as coisas que sabemos ou as coisas que aprendemos e aplicá-las a muitos tipos diferentes de situações. Mas isso é algo que escapou aos sistemas de IA por toda a sua história.

Strogatz: Não tenho certeza se realmente entendi a ideia. Que se uma pessoa ou um computador é dito ter inteligência geral, eles serão bons em muitas coisas que requerem inteligência? Essa é a ideia, certo? Se você é inteligente, você é inteligente.

Mitchell: Essa é a ideia. Se você é inteligente, você é inteligente. E eu diria ainda mais, se você aprendeu algo, você aprendeu algo. Então, você sabe, se eu disser que aprendi, por exemplo, a reconhecer rostos, então posso reconhecer rostos mesmo se a iluminação for diferente ou se alguém tiver crescido um bigode ou estiver usando óculos ou, você sabe, qualquer número de possíveis alterações, que somos muito bons em nos adaptar às mudanças no mundo.

Strogatz: Entendo. Então, como, quando somos desafiados por esses sistemas online que nos pedem para provar que não somos um robô, reconhecendo as letras, e elas estão todas amassadas e distorcidas e têm cortes e outras coisas, isso é chamado CAPTCHA, certo? Esta tecnologia –

Mitchell: Sim.

Strogatz: Isso é algo que achamos ridiculamente fácil. Isso ainda é difícil para a visão computacional?

Mitchell: Sim, sim.

Strogatz: Mas isso não é, para nós, porque sabemos como reconhecer letras?

Mitchell: Bem, as letras – você sabe, uma coisa que você deve ter notado é que há menos CAPTCHAs que usam as letras e mais que usam imagens.

Strogatz: Sim, ultimamente, certo, sim.

Mitchell: E isso porque aqueles que usaram as letras, agora estão vulneráveis aos computadores. Os computadores agora podem resolver isso.

Strogatz: Sério? OK.

Mitchell: Mas os que usam fotos são muito mais difíceis.

Strogatz: Isso é porque a rede neural está melhorando? Ou o novo estilo, ou IA ou o quê?

Mitchell: Parcialmente, sim, e outros – não apenas redes neurais, mas também outras técnicas de visão. Mas as pessoas decifraram a letra CAPTCHAs, mas a imagem CAPTCHAs diz, tipo, você sabe, “Clique em cada caixa onde você vê um carro”, esses tipos, esses são mais difíceis para as máquinas. Você sabe, as imagens gerais – reconhecer coisas em imagens é um problema muito mais difícil do que reconhecer letras.

Strogatz: Ok, então você está dizendo que isso é algo em que os seres humanos têm uma grande vantagem no momento, e isso é porque temos inteligência geral, ou o quê?

Mitchell: Bem, certamente somos melhores em reconhecimento visual do que as máquinas hoje. Mas deixe-me voltar ao exemplo das damas versus xadrez, porque provavelmente esse foi um mau exemplo. Mas deixe-me dar um exemplo interessante. DeepMind, a empresa que fez o AlphaGo, também construiu uma máquina que podia aprender a jogar esses videogames Atari. A ideia era que você tivesse jogos como Pong ou Breakout, os antigos videogames Atari dos anos 70 onde você … E então Breakout é um bom exemplo, porque em Breakout você usa um joystick para mover uma pequena raquete que acerta uma bola. Você sabe, isso tudo está em software, é claro. E a bola está quicando na raquete para destruir os tijolos.

Strogatz: Oh, ok, uh-huh.

Mitchell: E então, eles treinaram máquinas que podiam fazer muito, muito melhor do que os humanos nesses jogos. Esse foi um dos principais motivos pelos quais o Google adquiriu a DeepMind, porque eles ficaram muito impressionados com este exemplo de videogame Atari. Mas então, as pessoas começaram a brincar com ele e mostraram que … Então, digamos que você pegue o Breakout, o jogo com a raquete que você está movendo. Ok, agora suponha que você mova a raquete alguns pixels para cima na tela do vídeo. Agora, esse é um novo jogo. Os humanos não veriam isso, realmente, como um novo jogo, exatamente. Eles apenas diriam: “Ok, você moveu a raquete para cima. Realmente não importa. Eu ainda posso jogar. ” Mas a máquina que aprendeu a jogar com a posição original do remo não conseguiu se adaptar porque não aprendeu realmente o que nós, humanos, aprendemos sobre o jogo. Ele não tinha aprendido o conceito de remo ou o conceito de bola. Ele só aprendeu sobre padrões de pixels.

Strogatz: Oh, sim, uh-huh. Interessante.

Mitchell: Mas foi capaz de fazer muito melhor do que qualquer humano no que havia aprendido. Mas quando você mudou um pouco o jogo, ele não foi capaz de adaptar sua inteligência. Então, esse tipo de adaptação é chegar ao que queremos dizer com inteligência geral. É pegar os conceitos, aprender conceitos úteis e ser capaz de adaptar esses conceitos a novas situações.

Strogatz: Entendo, situações verdadeiramente novas. Hmm.

Mitchell: E podemos falar sobre isso em mais casos do mundo real, como carros autônomos, se você quiser, onde realmente aparece.

Strogatz: Oh, certo. Sim.

Mitchell: Sabe, se você está atravessando a rua e tem um cachorro na coleira, ele sabe que o cachorro vai vir com você? Há tanto que nós, humanos, sabemos que nem sabemos que sabemos sobre como o mundo funciona. Sabe, quando vemos pessoas atravessando a rua, meio que sabemos qual é a intenção delas. Nós sabemos para que lado eles estão indo, e você pode realmente ler a linguagem corporal muito bem. Mas é difícil para as máquinas aprenderem esse tipo de coisa e, na verdade, uma das coisas mais problemáticas que aprendi sobre carros autônomos – que elas têm dificuldade para descobrir o que conta como um obstáculo. Por exemplo, se você vir um grande bloco de concreto na frente do seu carro, não vai passar por cima dele.

Strogatz: Isso mesmo.

Mitchell: Mas se você vir uma erva daninha na frente do seu carro, pode passar por cima dela. Mas há tantas coisas possíveis que podem ser obstáculos que, você sabe, nós, humanos, usamos o conhecimento que temos, meio que nossa inteligência geral, para descobrir por que devemos parar, enquanto os carros autônomos muitas vezes param de repente onde os humanos não espere que eles façam. O acidente mais comum envolvendo carros autônomos é quando alguém bate na traseira deles.

Strogatz: Sério?

Mitchell: Porque eles param inesperadamente.

Strogatz: Oh, isso é interessante. Huh.

Mitchell: Eles são imprevisíveis. Então – e não é isso – você sabe, a pessoa que acabou com eles é a culpada, é claro. Mas é como se as pessoas não esperassem que carros dirigissem assim.

Strogatz: Certo, hein. Mas então – suponho que se todos os carros são autônomos, eles se entenderão.

Mitchell: Isso mesmo. Então, se todos os carros fossem autônomos, não houvesse humanos por perto, e incluindo pedestres porque eles são difíceis de prever, tudo ficaria bem. Mas é a mistura de humanos e carros que dirigem sozinhos e carros que dirigem sozinhos – você sabe, também os humanos não gostam de andar neles porque é muito irregular, eu acho, na maior parte do tempo.

Strogatz: Sério?

Mitchell: Isso é o que eu li.

Strogatz: Oh, estou surpreso em ouvir isso. Isso não vai ser bom para mim.

Mitchell: Não. E um dos problemas é que, você sabe, os engenheiros humanos têm que definir uma espécie de limite que diz, como, “Quão certo você deve ter de um obstáculo para fazê-lo parar?” E se você diminuir esse limite, ele pára o tempo todo quando não há obstáculo. Se você aumentar esse limite, pode atingir alguém, o que realmente aconteceu, você sabe, com o Uber dirigindo no Arizona. Eles tinham o limite bastante alto e isso atingiu alguém. Então, onde deveria estar esse limite?

Bem, nós humanos – eu não acho que trabalhamos dessa maneira, exatamente. Fazemos muito mais – sabemos muito mais. Podemos usar nosso conhecimento para descobrir quando devemos parar. E cometemos erros, mas é só que, você sabe, os tipos de erros que cometemos são muito diferentes dos carros autônomos.

Strogatz: Quais são algumas outras coisas que devemos pensar em termos de perigos? Porque existe uma grande tendência para a IA. Estamos colocando Alexas em nossas casas, e outras coisas que falam e ouvem, e –

Mitchell: Como você disse, temos essas máquinas em nossas casas e em muitos de nossos dispositivos, nossos carros e assim por diante, que estão coletando dados sobre nós e os enviando para suas empresas que estão fazendo algo com esses dados, e nós não nem sempre sei o que estão fazendo. E podemos nem sempre gostar do que eles estão fazendo. Então, isso é definitivamente uma preocupação. Sabemos que em alguns países, muitos desses dados estão sendo usados para fazer muita vigilância e é realmente preocupante para os defensores dos direitos civis.

Um exemplo é o reconhecimento facial. Isso está chamando muita atenção nos dias de hoje, já que a questão é, você sabe, deveria … É realmente, em certo sentido, uma dádiva para a aplicação da lei. Eles podem usar o reconhecimento facial. Tipo, agora a tecnologia é tal que você pode escolher um rosto em uma multidão, como, você sabe, em um jogo de futebol ou algo nas arquibancadas e dizer: “Oh, compare isso com o banco de dados criminal” e, tipo, ” Sim, esta pessoa corresponde. ” Existem muitas aplicações possíveis na aplicação da lei, segurança, permitindo que as pessoas viajem em aviões.

Mas há muitas preocupações. Em primeiro lugar, esses sistemas podem cometer erros, e o fato de serem alimentados por essas redes neurais profundas que são muito complicadas e não transparentes em suas tomadas de decisão significa que não entendemos realmente todos os erros que esses sistemas cometem . Mas também foi mostrado que esses sistemas podem ser tendenciosos, pois os sistemas de reconhecimento facial tendem a ser melhores – cometem menos erros, digamos, em pessoas com pele mais clara, ou os homens são – eles são melhores nos homens do que nas mulheres re melhor em pessoas mais jovens do que em pessoas mais velhas. Você sabe, existem todos esses preconceitos diferentes que surgiram.

Strogatz: Huh. Isso se baseia nos conjuntos de dados nos quais eles foram treinados? Que há, tipo, super-representado por brancos, homens, pessoas mais jovens?

Mitchell: É parcialmente baseado nos conjuntos de dados. Existem também alguns preconceitos intrínsecos ao longo de todo o procedimento. Tipo, câmeras são ajustadas melhor para peles mais claras. Eles captam características de peles mais claras melhor, de modo que os sistemas de reconhecimento facial podem então, você sabe, usar recursos melhores para identificá-los. Portanto, há muitas resistências ao uso do reconhecimento facial para várias aplicações de segurança e policiamento, etc. E algumas cidades, como San Francisco e Oakland e algumas outras cidades, o baniram.

Strogatz: Ok, apenas baniu completamente.

Mitchell: Apenas o baniu totalmente para uso em, como, aplicação da lei e outros tipos de aplicações governamentais.

Strogatz: Estou impressionado com o que você disse, a “não transparência” do processo de tomada de decisão. Em seu mundo, você chama isso de problema de interpretabilidade ou algo parecido, ou explicabilidade …?

Mitchell: Explicabilidade, interpretabilidade. As pessoas usam termos diferentes, mas a ideia é que o método de maior sucesso em IA atualmente são chamados de redes neurais profundas. Eles são meio que inspirados pelo cérebro, pois simularam neurônios e simularam conexões entre neurônios que têm diferentes potências.

E pode haver bilhões desses neurônios simulados e conexões simuladas, e eles têm números associados a eles que são aprendidos pelo sistema a partir de muitos dados. As pessoas estão trabalhando muito para encontrar maneiras melhores de explicar o que está acontecendo, mas ainda é muito difícil.

Strogatz: Você ouve muito esse termo hoje em dia, sobre redes neurais profundas. Bem, “redes neurais” se refere a uma versão artificial de redes neurais reais, as redes reais de neurônios que todos nós temos em nossos cérebros e em nossos sistemas nervosos. Mas, neste contexto, redes neurais profundas significam redes artificiais feitas de silício. Eles são feitos de transistores ou poderiam ser apenas software puro, mas o fato é que eles são modelados na arquitetura real do cérebro humano, em que você tem muitos pequenos elementos, e eles estão todos conectados nesses teias tremendamente intrincadas. Então, o que os torna profundos é que eles têm muitas camadas, como a forma como o cérebro é organizado. Tipo, se você pensar sobre o sistema visual, a luz entra, atinge seu olho, volta através do seu nervo óptico para outra camada de células. E assim, uma rede é profunda na medida em que tem muitas camadas.

Mesmo que essas redes sejam modeladas a partir de um cérebro humano, de certa forma elas não são nada como o cérebro humano Temos muitos problemas para entender as soluções que eles apresentam, e eles não conseguem explicar por si próprios.

Mitchell: É quase incompreensível como entender o que o computador está fazendo, mas temos essas linguagens de programação de alto nível que nos permitem especificar em termos compreensíveis para humanos o que o computador está fazendo. O sonho da neurociência é inventar algo análogo a isso, a linguagem de programação de alto nível do cérebro, se você quiser, que faça sentido – que nos permite entender o que o sistema está fazendo em termos que possamos entender . E isso é algo que não sabemos fazer com AlphaGo, é investigar quais são seus conceitos.

Strogatz: Certo, certo.

Mitchell: E se houver algum. Quero dizer, claramente tem algo. Ele está fazendo alguma coisa. Ele está fazendo – você sabe, é uma combinação – eu penso em AlphaGo como uma combinação de intuição e pesquisa, porque ele está fazendo muita pesquisa, muito mais tipo de olhar para o futuro do que um humano faria. Mas também está combinando isso com um tipo de conceitos de nível mais alto que – sobre, tipo, o que – esse é um bom tipo de situação para se estar?

Strogatz: Estou um pouco surpreso que você se permita usar a palavra intuição para descrevê-lo.

Mitchell: AlphaGo parece ter alguma intuição sobre xadrez ou Go ou, você sabe – AlphaZero, devo dizer, você sabe, quando foi treinado. Você sabe, ele tem que aprender jogando sozinho em milhões de jogos, mas ele aprendeu algo sobre como fazer um julgamento, e eu acho que é um tipo de intuição. Isso é algo que eu falo no meu livro, que é, tipo, por que você quer que seu filho entre no clube de xadrez da escola?

Strogatz: Tudo bem. Sim, boa pergunta.

Mitchell: Bem, não é porque necessariamente você se preocupa muito com eles aprendendo xadrez. Você sabe, a maioria das crianças não vai ganhar a vida jogando xadrez. Mas é porque você acha que jogar xadrez é uma atividade que fará com que seu filho aprenda a pensar melhor, a ser mais inteligente de alguma forma. Mas AlphaZero, o jogador de xadrez, não aprendeu a pensar melhor ou ser mais inteligente em nada, exceto no xadrez. Então, é como o idiota sábio que pode jogar xadrez e ser o melhor do mundo, mas não pode fazer outra coisa.

Strogatz: Depois do intervalo, qual é a melhor maneira de ser um bom pai para um sistema artificialmente inteligente? Devemos tratá-los mais como nossos próprios filhos? Isso está à frente.

Mitchell: Esta é, na verdade, uma ideia muito antiga em IA, e foi a primeira – foi levantada até por Alan Turing em seu artigo de 1950, onde ele propôs o teste de Turing, que disse que provavelmente deveríamos criar um sistema de IA da maneira que criar uma criança. Não devemos apenas programá-los para fazer coisas restritas. Não devemos apenas deixá-los ter essas vidas muito estreitas, mas devemos deixá-los ser uma criança. E agora isso está ganhando muita força, essa ideia. Na verdade, aqui está algo que você pode achar divertido. Há um grande impulso por meio da DARPA, a Agência de Projetos de Pesquisa Avançada de Defesa, que financia muitas pesquisas de IA, chamada de bom senso de máquina. E o programa é fazer com que uma máquina tenha o bom senso de um bebê de 18 meses.

Strogatz: Tudo bem.

Mitchell: E assim, as pessoas estão criando programas de computador destinados a aprender como os bebês, e meio que passam por marcos de desenvolvimento da mesma forma que os bebês.

Strogatz: Oh, cara. Sim?

Mitchell: Então, este é apenas um microcosmo do grande tipo de paradoxo da IA, é que temos esses sistemas brilhantes que podem jogar xadrez e ir e fazer todas essas coisas incríveis e traduzir entre idiomas e, você sabe, o que você tem . Mas é um grande desafio fazer com que uma máquina tenha o bom senso de um menino de 18 meses.

Strogatz: Hmm. É bom lembrar da próxima vez que você ler a grande manchete de um jornal, ou de uma dessas revistas de negócios, que esse é o grande desafio, produzir um menino de 18 meses ou algo parecido, provavelmente até tão inteligente quanto o meu cão.

Mitchell: Não, nem de longe tão inteligente quanto seu cachorro, ou mesmo – em certo sentido, até mesmo ratos ou coisas que poderíamos considerar não muito inteligentes.

Strogatz: E quanto à emoção? Quer dizer, muitas vezes fazemos uma divisão em nossa mente entre sentimento e pensamento. Claro, as pessoas têm ambos. É parte do que os torna – os computadores, as IAs – tão burros até agora, que eles – nós não os imbuímos de qualquer capacidade emocional?

Mitchell: É muito provável. Quero dizer, é difícil saber porque não entendemos realmente como a emoção afeta nosso próprio pensamento. Isso claramente causa um certo impacto. Mas, você sabe, quando um humano executa uma tarefa ou, tipo, joga um jogo de Go, eles se importam. Eles querem vencer, certo? E eles ficam chateados quando perdem, e a máquina nem mesmo tem o conceito de ganhar e perder. Não tem nenhum tipo de pele no jogo, se você quiser.

Strogatz: Certamente não.

Mitchell: Sim, e isso importa? E esses programas de aprendizado de máquina, você sabe, eles são meio que alimentados com dados de uma forma muito passiva, enquanto as crianças são muito emocionais com seu aprendizado. Eles desejam desesperadamente saber certas coisas. Eles querem desesperadamente tentar certas coisas. Eles ficam muito chateados quando lhes é negada a oportunidade de fazer certas coisas, porque têm motivações muito fortes. Então, a questão – mas é uma grande questão, se isso poderia fazer sentido, ter uma máquina com emoções ou motivações.

Strogatz: Bem, de um ponto de vista evolucionário, você pode ver por que um bebê precisa sentir amor para se apegar à mãe ou aos pais ou parentes. Você sabe, quero dizer, há todos os tipos de – na linguagem desse campo, há muitas vantagens seletivas em ter certas emoções para sua sobrevivência. Os computadores não precisam de emoções no momento, porque eles estão apenas confortavelmente conectados à sua fonte de energia, e nós os fazemos jogar seus milhões de jogos de xadrez.

Mitchell: Certo. Uma grande parte da IA moderna é uma área chamada aprendizado por reforço. Na verdade, essa é uma grande parte da maneira como AlphaGo e AlphaZero funcionam, onde a máquina faz algo e recebe uma “recompensa” se fizer algo bom, mas onde a recompensa é apenas um número, certo? É como se eu adicionasse um número ao meu registro de recompensa. Então, isso é um tipo de simulação de emoção muito insatisfatória.

Strogatz: Certo.

Mitchell: Mas, você sabe, eu acho que ninguém realmente sabe a resposta para saber se você precisa de algo mais do que isso ou não, se você precisa … E, você sabe, outro – há todos os tipos de outras coisas que são importantes para nós, humanos, como nossas interações sociais, nosso – nós aprendemos com outras pessoas.

Strogatz: Entendo. Então, inteligência artificial social, essa é uma nova direção interessante, não é? Quer dizer, existe tal coisa? As pessoas pensam sobre isso?

Mitchell: Sim, as pessoas estão pensando nisso. Quero dizer, você sabe, eles estão tentando pensar sobre o que nós, humanos, temos que essas máquinas não têm, ou mesmo os animais. Você sabe, então, há uma área chamada aprendizagem de imitação, onde você aprende – a máquina aprende tentando imitar um humano. Mas para fazer isso, tem que ter um modelo do ser humano e tentar entender, tipo, o que o ser humano está fazendo em algum nível conceitual que permitirá que a máquina faça isso. Então, é tudo muito primitivo, mas acho que há muito tempo o campo acredita que as máquinas não precisam de emoções; na verdade, as emoções seriam prejudiciais, porque elas meio que atrapalham o pensamento racional. Você sabe, se você está dirigindo e tem raiva da estrada, é mais provável que você se envolva em um acidente e –

Strogatz: Sim. Uau, isso é interessante. Os carros que dirigem sozinhos, não pensamos sobre que tipo de raiva na estrada eles podem estar sentindo, ou deveriam estar sentindo por todos esses humanos idiotas fazendo suas coisas estúpidas irracionais lá fora na estrada.

Mitchell: Certo, e a questão é que eles não têm nenhuma raiva da estrada e não têm nenhuma motivação para chegar a algum lugar rápido ou – mas eu acho que é realmente – você sabe, isso é realmente na fronteira do que as pessoas estão pensando em IA. É, precisamos da raiva na estrada ou é melhor não ter raiva na estrada? Ou, você sabe, uma máquina poderia ser superinteligente no sentido de que é sobre-humana racional sem qualquer um de nossos – você sabe, a necessidade de dormir, ou nossas emoções, ou nossos preconceitos cognitivos que temos? Ou todas essas coisas são necessárias para a inteligência?

Strogatz: A imagem que estou obtendo com sua descrição de tudo isso é que realmente estamos na infância de estudar esse campo.

Mitchell: Eu acredito que está correto. Uma das coisas que citei em meu livro foi alguém dizendo que a IA geral está a 100 prêmios Nobel de distância, o que é uma boa maneira de medir o tempo, eu acho, ou quão longe está um campo.

Strogatz: Ouvir Melanie me deixa realmente otimista sobre o futuro da inteligência artificial, não tanto pelo que isso significará para a sociedade, mas pelo que significará para os seres humanos que estão trabalhando nisso. Vai exigir essa colaboração de nossa parte. Realmente vai ter que ser tudo mãos à obra, e isso por si só é empolgante.

Mitchell: Estou prestes a ir para o Instituto Santa Fé por um ano e vou organizar um programa de pesquisa em inteligência estudado de uma perspectiva interdisciplinar. Então, estou muito animado com isso, e acho que é realmente o que precisamos fazer para obter algumas dessas peças que faltam da IA. Para entender melhor o que queremos dizer com inteligência e o que queremos dizer – você sabe, não apenas em humanos, mas em várias espécies, e até mesmo em organizações, sociedades etc.

Strogatz: Oh, entendo. Certo, e fala-se, sim, de “cidades inteligentes”. Quero dizer, as pessoas usam a palavra “inteligência” para se referir a coisas que normalmente não pensamos como tendo inteligência, mas –

Mitchell: Sim, então, tipo, inteligência meio ampliada. O que isto significa? E como o estudamos? Não parece que faz sentido apenas estudá-lo dessas formas disciplinares isoladas, porque é muito mais amplo do que apenas neurônios ou, você sabe, comportamento ou aprendizado de máquina. Isso é algo que estou muito animado.

Strogatz: E então a empolgação é em parte pensar sobre quem convidar, qual deveria ser o assunto ou …?

Mitchell: Sim, quem convidar, quais tópicos, apenas como tentar fazer com que essas pessoas de diferentes disciplinas falem umas com as outras de maneiras úteis.

Strogatz: Isso já foi feito antes?

Mitchell: Sim, está feito. Quero dizer, todo o campo da ciência cognitiva é uma espécie de tentativa de fazer isso. Não acho que seja realmente … Quer dizer, um dos problemas com a IA é que costumava ser um primo próximo da ciência cognitiva, em que as pessoas iam às mesmas conferências e conversavam umas com as outras. Mas a IA meio que se tornou uma vítima de seu próprio sucesso, pois agora os métodos são muito mais parecidos com estatísticas do que com psicologia. E big data, grandes redes neurais, você sabe, computadores rápidos é realmente a maneira de fazer esses programas funcionarem bem. E é tão bem-sucedido que agora as pessoas estão em empresas que trabalham nele para aplicações específicas, e não em universidades, pensando de forma mais geral o que é inteligência. Então, eu acho que é um pouco – é tão bem-sucedido que se tornou ele mesmo – IA, o campo em si se tornou mais restrito ao invés de mais geral.

Strogatz: Entendo.

Mitchell: Você sabe, falamos sobre IA limitada, mas todo o campo se tornou realmente focado em um conjunto particular de métodos e perdeu seu contato com a ciência cognitiva em grande medida.

Strogatz: Sabe, normalmente falaríamos sobre os avanços na IA, então parece que você está falando sobre uma espécie de recuo, ou talvez um passo para o lado ou um passo para trás?

Mitchell: Sim, sim, exatamente. E, você sabe, as pessoas falam sobre o quão rápido o campo está se movendo, você sabe. Acho que estou falando sobre desacelerar.

Strogatz: Sim.

Mitchell: Eu acho que, você sabe, em alguns aspectos é ótimo que esteja progredindo extremamente rápido, mas em alguns aspectos, não está progredindo de forma alguma.

Strogatz: Da próxima vez em The Joy of x, Dr. Emery Brown sobre o que a anestesia está nos ensinando sobre os diferentes estados de consciência.

Emery Brown: Se eu fosse a um paciente e dissesse: “Com licença, Sr. Jones, mas vou colocá-lo em um coma reversível induzido por drogas”, quero dizer, você sabe, ele se levantaria e sairia correndo Fora do quarto. Mas não é justo dizer: “Vou colocá-lo para dormir” porque você não está dormindo.

Strogatz: The Joy of x é um projeto de podcast da Quanta Magazine. Somos produzidos pela Story Mechanics. Nossos produtores são Dana Bialek e Camille Peterson. Nossa música é composta por Yuri Weber e Charles Michelet. Ellen Horne é nossa produtora executiva. Da Quanta, nossos consultores editoriais são Thomas Lin e John Rennie. Nossos engenheiros de som são Charles Michelet e, no Cornell University Broadcast Studio, Glen Palmer e Bertrand Odom-Reed, que gosto de chamar de Bert.


Publicado em 21/04/2021 12h53

Artigo original:

Estudo original: