Um guia para decisões com Inteligência Artificial

Todos nós temos falado de como os dados impactam nossas vidas. Entender como dados podem ser usados em decisões é tão importante que o Google tem um cargo chamado Chief Decision Cientist que é ocupado por Cassie Kozyrkov, uma cientista de dados que tem como missão democratizar decisões inteligentes, seguras e confiáveis tomadas por Inteligência Artificial.

Cassie começou sua palestra mostrando diversos exemplos de usos de inteligência artificial e acho que foi o único momento que ela efetivamente falou de sua empresa, quando mencionou que todos os produtos do Google tem Inteligência Artificial de alguma foram.

IMG_2371

Muito didática ela investiu um tempo explicando como funciona ciência de dados comparando com culinária, onde os dados são os ingredientes, você precisa separar os ingredientes necessários para a receita, aplicando um algoritmo (equipamentos) e depois criar um modelo (receita) que vai te ajudar a tomar uma decisão (prato).

IMG_2380

E a partir daí, com o conhecimento de toda a audiência nivelado começou a chamar atenção para alguns dos riscos de trabalhar com Inteligência Artificial:

IMG_2430.JPG

  1. Humanizar – achar que algo com inteligência é humano.
  2. Excesso de expectativas – acreditar que vai resolver todos os problemas da humanidade.
  3. Entrar na Moda – Colocar AI em tudo só porque é mais fácil vender o produto.
  4. Pouco cuidado com os dados – Não se preparar para erros nem criar políticas para lidar com problemas e crises
  5. Não testar – Confiar nos resultados sem fazer testes, dados tem autores, autores tem bias, de onde vieram os seus dados?
  6. Falta de segurança – Não ter um plano B ou dispositivos de segurança para lidar com falhas
  7. Não otimizar os dados – Criar um modelo a partir de dados ruins é fazer com que o más decisões sejam tomadas em larga escala, amplificando ignorância ao invés de inteligência

Colocar Inteligência Artificial nas mãos de quem não entende a responsabilidade dos resultados e que não sabe como testar e/ou avaliar a qualidade dos resultados pode afetar negativamente a vida de milhões de pessoas que confiam em um algoritmo. Esse é um dos principais motivos que o Google criou um programa de treinamento de decisores.

Bônus: uma piada que ela compartilhou e talvez eu tenha achado mais engraçado que a maioria por ser um pouco nerd:

Se está escrito em Python então provavelmente é Machine Learning, se estiver escrito em PowerPoint então provavelmente é Inteligência Artificial

Sensores para entenderem seus sentimentos

Na 2ª palestra do dia eu encontrei Poppy Crum, cientista chefe na Dolby Laboratories, ela foi responsável por uma das melhores palestras que vi no ano passado e resolvi apostar novamente ignorando uma das minhas regras que é não assistir palestras que você pode encontrar na internet.

No vídeo abaixo, de uma palestra do TED, ela explica que máquina vão saber como você está se sentindo combinando diversos sensores já existentes:

Poppy chama essas inovações de tecnologia empática, tecnologias capazes de entender o que estamos sentindo com o objetivo de nos conectarmos melhor uns com os outros.

Talvez a ideia de que máquinas capturem sua informação para te analisar assuste como vemos na China com o crédito social, porém dados já vem sendo coletados faz muito tempo para te analisarem e tomar decisões para você.

O que Poppy propõe é muito mais sobre criar consciência de que dados podem ser coletados e permitir que você use isso para seu bem estar ao invés de serem usados como as empresas bem permitirem.

Este slideshow necessita de JavaScript.

É melhor regular o uso para o bem do que enterrar projetos tecnológicos com medo de serem usados para o mal, pois acontece que eles nunca ficam enterrados para sempre.

Ciência para gerar admiração

Foi um painel interessante mostrando que a criatividade do Cirque de Soleil requer muito trabalho duro (isso a gente já sabia), mas também um departamento de inovação e criatividade que tem começado a flertar com a ciência.

A palestra começou com Beau Lotto, neurocientista do Lab of Misfits explicando como nossa percepção é afetada pela perspectiva, pela luz e por nossa tendência de “humanizar” objetos como o clássico experimento Heider-Simmel onde nós imaginamos uma história com círculos e triângulos como se eles fossem pessoas:

Curiosamente Cassie Kozyrkov havia mencionado esse experimento pela manhã quando falou sobre o risco de humanizar uma Inteligência Artificial pensando nela como uma pessoa.

Falou ainda de como outros sentimentos afetam nossas percepções e a necessidade que temos de encerrar histórias. Saber o que aconteceu com um personagem ou tocar aquela última nota de uma música (ou a fase final de um videogame).

A palestra continua com Diane Quinn falando sobre a importância de gerar incerteza para dar espaço para a criatividade trabalhar mais livremente e surpreender o público. Como assim trabalhar com incerteza? Bem, é ir testando coisas sem ter muita ideia de onde se quer chegar até que você encontra o momento de Awe (admiração).

Em seguida mostrou um dos experimentos feitos com o público que consistiu, de forma simplificada em, medir as ondas cerebrais durante o show e fazer um questionário antes e depois:

Algumas mudanças no público notadas com a experiência:

  • A tolerância a riscos aumentou bem como a habilidade para avaliar riscos
  • Se tornaram mais sociais e abertos a interagir com outras pessoas
  • Reduziram sua necessidade de controle, aceitando melhor as incertezas

Agora você já sabe né? Se terminar de ver um show do Circo de Soleil fique longe de um cassino! 😉