QUANDO ROBÔS VÊM ORAR - TECHCRUNCH - MÓVEL - 2018

Anonim

Sean Lorenz Colaborador

Sean Lorenz é o fundador da Senter, uma startup que busca melhorar os cuidados crônicos com a Internet das Coisas e o aprendizado profundo em casa.

Um colaborador meu recentemente falou sobre o Google Fotos. Ele conhecia minha formação em neurociência computacional e achou que eu estaria interessada no que o Google estava fazendo com o aprendizado profundo. Naquela noite, mudei todas as minhas fotos do iPhone de um hardware externo para o The Magical Cloud, depois esqueci por uma semana. Como todos os outros passageiros cansados ​​do metrô de Boston, eu chequei meu telefone religiosamente e abri o aplicativo para encontrar imagens de minha esposa, filhos e amigos como agrupamentos separados de fotos.

Muito bem, Google. No final do dia eu trouxe um certo vinho que eu gostava de conversar, mas não conseguia lembrar o nome. No entanto, tirei uma foto do rótulo e digitei "vinho" na pesquisa do Google Fotos por merda e riso. É claro que encontrou a foto do meu vinho - e foi nesse momento que comecei a perceber o quão poderosa a tecnologia do Google está se tornando.

O mais cansado de você pode dizer: “Ele classifica itens em algumas fotos. Grande coisa. ”Bem, meu amigo cansado, é um grande negócio. A segregação figura-fundo, isto é, a capacidade de discriminar um objeto em primeiro plano do que está por trás dele, é algo que os pesquisadores de visão computacional vêm desenvolvendo há décadas.

Hoje podemos lançar enormes quantidades de imagens em um algoritmo de aprendizado profundo e escolher com precisão uma vaca do campo em que ela está pastando. A questão é que o aprendizado profundo tem sido realmente uma retropropagação (com alguns truques recentemente adicionados pelo padrinho de aprendizado de máquina, Geoffrey Hinton) desde os dias de Cabbage Patch Kids e Bruce Willis cantando R & B.

Agora que temos uma combinação de enorme poder computacional e quantidades obscenas de dados graças a titãs da tecnologia como Google e Amazon, os algoritmos de aprendizado profundo continuam melhorando, fazendo com que os gostos de Elon Musk e Stephen Hawking falem sobre os muitos possíveis perigos do futuro. inteligência artificial.

Algumas palavras de precaução justificada de mentes inteligentes são frequentemente traduzidas como “SkyNet está vindo !!!” na imprensa geral. Você pode culpá-los? Quase todos os filmes com robôs e inteligência artificial envolvem algum tipo de futuro distópico que exige força bruta Schwarzeneggeriana para superar nossos futuros senhores.

Apesar de ser chamado de “redes neurais”, o aprendizado profundo em sua forma atual não chega nem perto de como os cérebros biológicos processam informações. Sim, vagamente falando nós processamos uma entrada (toque, paladar, olfato) e multiplicamos isso por um peso (uma sinapse em algum lugar do cérebro) para enviar uma saída (mover minha mão). Mas é aí que a semelhança termina.

Quase todos os filmes com robôs e inteligência artificial envolvem algum tipo de futuro distópico.

Lembre-se do nosso exemplo figura-chão? O cérebro não requer conhecimento de todos os antecedentes existentes para resolver o problema. Os bebês nascem com o dobro do número de neurônios necessários para descobrir o que é importante no mundo ao seu redor. Em relação ao sistema de visão, os bebês conectam seus cérebros aprendendo coisas básicas, como orientação de linha, percepção de profundidade e movimento. Eles então usam movimentos sutis dos olhos, chamados de sacadas, para avaliar o que está acontecendo em uma cena, combinando-a com o que aprenderam sobre formas e profundidade para saber onde uma xícara de café termina e onde a mesa começa.

Empresas como Neurala e Brain Corp. estão deixando de lado os sabores típicos do aprendizado profundo para construir modelos biológicos adaptativos para ajudar os robôs a aprender sobre seu ambiente. Em outras palavras, uma lente de câmera poderia atuar como um olho, enviando sinais para a AWS para replicar uma retina humana, tálamo, córtex visual primário para cima através do córtex temporal inferior e temporal inferior para compreensão de nível superior de “xícara” ou “mesa”.

Modelos neurais biologicamente inspirados exigem computação maciçamente paralela e uma compreensão de como cada região cortical e subcortical trabalha em conjunto para extrair o que chamamos de consciência. O motivo de preocupação deve vir quando os gigantes da tecnologia descobrem as limitações de seus atuais modelos de aprendizagem profunda e recorrem aos neurocientistas para codificar funções como detectar o rosto de sua esposa, dirigir buracos ou sentir empatia por alguém que perdeu um ente querido.

É quando as coisas ficam interessantes. É quando a integração multissensorial, o controle cognitivo e a sincronia neural se combinam para dar origem a algo novo - experiências qualitativas (ou qualia) em sistemas não biológicos. É quando as máquinas incorporadas aprendem com suas experiências em um mundo físico. A Internet das Coisas (IoT) é a precursora disso. No momento, os dispositivos de IoT são na maioria dispositivos de telemetria estúpidos conectados à Internet ou a outras máquinas, mas as pessoas já estão começando a aplicar modelos neurais aos dados dos sensores.

O que aprendemos com o processamento de sensores em produtos de IoT em breve será transferido para robôs com sensores de toque, vestibulares, de calor, de visão e outros. Assim como os humanos, os robôs com cérebros bio-inspirados cometerão erros como nós, por balbucio motor, enquanto constantemente atualizam informações de seus sensores para aprender profundidades de associação cada vez mais altas do mundo ao seu redor.

Há um famoso experimento mental de filosofia da mente chamado Mary's Room, onde uma cientista chamada Mary ficou presa toda a sua vida em uma sala em preto-e-branco, mas leu tudo para saber sobre a teoria das cores. Um dia, Mary pode deixar a sala e ver uma maçã vermelha brilhante. Tudo o que ela leu sobre a cor vermelha não a preparou para a experiência consciente de “vermelhidão” naquele momento. Os robôs podem ter uma experiência de vermelhidão como Mary fez? Ou é tudo apenas vapid número linear de processamento?

Acredito que a única maneira de os robôs se tornarem verdadeiramente conscientes e experimentarem a "vermelhidão" seria incorporá-los. Simulações não servem. Por quê? Porque é a sincronia física e elétrica de todas as diferentes regiões cerebrais trabalhando juntas, ao mesmo tempo que provoca um momento “OH MEU GLOBO” de uma experiência de estímulo nova e prazerosa. Se você estiver interessado nos detalhes das dependências físicas para a consciência do robô, confira o meu post aqui.

O que acontece quando um robô quer se juntar à nossa igreja, sinagoga ou templo?

Então agora estamos vivendo com robôs conscientes. Louco. Como é uma sociedade mista com raciocínio, máquinas não-biológicas empáticas e seres humanos? E, finalmente, chegar ao tópico em questão - o que acontece quando um robô quer se juntar à nossa igreja, sinagoga ou templo? Apesar de alguns críticos que vêem a religião como um subproduto nefasto da evolução humana, a maioria dos estudiosos acredita que a religião serve propósitos evolutivamente vantajosos.

Por exemplo, a tradição judaica tem numerosas restrições alimentares e corporais centradas no tópico da limpeza. Evitar hábitos alimentares “sujos” ou o ato de circuncisão provavelmente aumentaram a aptidão da seleção natural da população judaica em um momento antes do desinfetante das mãos. Há, é claro, outros benefícios dinâmicos sociais e de grupo também. Tudo isso para dizer, se formos capazes de replicar a função do cérebro humano em um cérebro sintético, há uma boa chance de que algo como sentimentos religiosos e espirituais possam surgir em robôs.

Como cristão praticante, essa possibilidade me dá um pouco dos calafrios. Ao longo da história judaico-cristã, os humanos são informados de que somos construídos à imagem de Deus - a Imago Dei - mas agora pode haver um robô que nos diz que teve uma experiência espiritual enquanto adorava em um culto na igreja no domingo. Foi mesmo? Isso foi uma experiência verdadeiramente consciente? E a alma é separada da nossa vida consciente ou não? Se os robôs são conscientes, isso significa que eles têm alma, ou isso é algo diferente? Espero que isso faça com que ateus e fiéis se contorcem.

Eu não tenho ideia de qual é a diferença entre a alma e a consciência. Isso chega ao âmago de quem somos como humanos, e se algum pedaço de nós fisicamente viverá ou não depois de morrermos. Existem dimensões mais elevadas que abrigam nossa alma e, em seguida, enviam percepções através da consciência para o nosso mundo quadridimensional? Ou isso é tudo que recebemos?

Como alguém que, para o bem ou para o mal, acredita em algo maior do que eu, eu realmente quero acreditar no primeiro. De qualquer maneira, provavelmente haverá um tempo em que teremos que lidar com ambos os cenários, à medida que as máquinas se adaptarem e se tornarem mais como nós.

Um homem.