Foi muito difícil escolher a palestra das 9:30, e apesar do meu cérebro dizer para dormir até mais tarde lá fui eu para ver uma palestra de alguém que poderia dizer algo inesperado.

O Desenvolvedor, a Empresa e os Sistemas Abertos

A palestra de Davie Sweis, VP de Global Digital Business e Head de IT da Bosch foi bacana, mas não foi inesperada, pelo menos rendeu alguns insights bacanas.

Davie começou relembrando como os programadores mudaram de vilões / idiotas na década de 80 em Hollywood (Vingança dos Nerds, Mulher Nota 1000 e Jurassic Park) para galãs na década de 90 (Sandra Bullock em a Rede, Robert Redford em Quebra de Sigilo e Keanu Reeves em Matrix)

Em seguida comentou sobre celebridades promovendo programação e sua experiência pessoal no Dia da Profissão na escola onde ao escrever código ao vivo na sala de aula o fez mais atraente aos olhos das crianças (em especial sua filha) mesmo com pais bombeiros e policiais participando.

Aquele vale um parênteses, eu acredito sim que todos precisarão saber um básico de programação no futuro, porém meu palpite é que uma boa parte dos códigos será feito por inteligência artificial, uma espécie de evolução dos frameworks atuais. Sendo assim pensamento lógico estruturado, conhecimento sobre processos e algoritmos devem dar conta do recado e servem como skills para outras profissões correlacionadas.

Empresas estão errando

Ótimas empresas usam tecnologia para acelerar o crescimento. Empresas precisam dos desenvolvedores, mas estão cometendo erros básicos:

  1. Estão contratando para cargos e não para carreiras
  2. Tratam engenharia de software como um trabalho baseado em tarefas
  3. Não tornam a retenção de talentos uma prioridade explícita
  4. Mantém os desenvolvedores presos em projetos
  5. Faltam oportunidades de crescimento
  6. Faltam mentes de talento semelhante na empresa

O desenvolvedor que se sente tratado como um computador acaba saindo em busca de startups onde ele pode ter uma carreira, participar da estratégia, se sentir importante na empresa e discutir os caminhos do futuro com seus pares.

Entendendo os programadores

Além de pensar em uma carreira e mudança de cultura para os desenvolvedores internos é preciso criar um ecossistema de atração contínua para o mercado de programação.

A última pesquisa do Stack Overflow mostrou que 80% dos programadores escrevem código como hobby nas horas vagas.

Screen Shot 2019-03-21 at 22.31.32
Você já criou alguma campanha para atrair programadores pensando nisso como diversão?

Plataformas abertas são ótimas para permitir que desenvolvedores se engajem nas horas vagas com seus projetos paralelos.

E no final um recado para os desenvolvedores: Engagem suas empresas, tragam suas ideias, sua inspiração, sua paixão e ajudem a transformar suas companhias. Não é pra ficar importunando e sendo chato, mas evangelize de verdade.

Machine Listening

Já pensou que em um áudio tem muito mais do que música (hoje identificada por softwares como Shazam & SoundHound) e voz (identificado por Google, Alexa, Siri, Cortana e diversos outros assistentes e apps)? Existem também sons como sirenes, latidos, choros, passos, etc…

Com essa introdução Yoonchang Han começou a explicar o que era Machine Listening, e o que sua startup Chochlear.ai se propunha a melhorar.

IMG_3331.jpg

A palestra acabou sendo bem técnica mas didática, foi um pouco longa mas no final das contas achei que foi um bom equilíbrio do uso do tempo, se eu tivesse algum projeto de voz teria saído dali fazendo alguma parceria com Han, muita gente vai palestrar ao SXSW e não aproveita o palco que conquistou.

Um som de chuva te lembra de pegar um guarda chuva antes de sair ou fechar as janelas de casa, um som de passos te diz que tem alguém se aproximando e se você identificar o tipo de calçado talvez saiba até quem é a pessoa que está chegando.

Ok, parece que esses ruídos  não são informações insignificantes no final das contas.

Han mostrou que no reconhecimento de música tem uma série de informações que conseguem ser extraídas como gênero, humor, acordes, ritmo, etc e da voz pode obter idioma, idade, gênero, emoção ou saúde. Porém quando se trata de sons existem poucas classificações um pouco vagas como cenários (sons longos e de fundo) e eventos (sons curtos).

A Chochlear já possui uma API em beta, disponível no GitHub, também foram apresentados alguns casos de uso:

  • Uma tosse em casa pode fazer com que seu assistente de voz te recomende o médico ou uma pastilha.
  • Um ruído de vidro quebrado pode disparar um sistema de segurança.
  • Um carro autônomo pode usar uma informação de sirene para se preparar com antecedência para um evento inesperado.
  • Ainda no carro autônomo um choro dentro do carro pode disparar uma música para tranquilizar, ou uma pessoa engasgado pode direcionar a viagem para a emergência.

IMG_3354

No final Han ainda mostrou um projeto artístico onde num show o computador mudava a música conforme sons do dia-a-dia que uma bailarina fazia em um cenário colocado em um palco. Achei curioso mas prefiro os exemplos mais práticos apresentados anteriormente.

O carro autônomo do Google (Waymo)

Em Phoenix no Arizona um serviço de “robô-táxi” está funcionando desde 5 de dezembro.

A experiência na cidade talvez finalmente resolva alguns dilemas éticos na prática, será que realmente em uma velocidade controlada dentro da cidade, enxergando 3 campos de futebol em todas as direções há tanto risco de alguém morrer?

Provavelmente quando cruzarem as estatísticas de mortes de carros dirigidos por humanos versus carros autônomos a conta talvez convença outras cidades a liberarem o serviço.

IMG_3393

Afinal de contas como disputar com uma máquina que enxerga simultaneamente tantos elementos da via, inclusive conseguindo identificar os sinais de um guarda de trânsito:

Uma das preocupações dos designers do app do Waymo foi transmitir para quem está dentro do veículo a tranquilidade de que está tudo sob controle do carro autônomo.

Ryan Powell Head of UX Research & Design na Waymo mostrou como foi esse processo de escolher entre o que a Inteligência Artificial via:

IMG_3419.JPG

E o que era mostrado na tela do carro:

IMG_3426.JPG

Basicamente a escolha aqui foi baseado em:

  • Elementos visíveis para o passageiro – certificá-lo que o Waymo está vendo os mesmos elementos (carros, pessoas, faixas, etc.)
  • Sinalização de trânsito – garantir que o Waymo está vendo semáforos, guardas, placas, desvios, obras na pista etc.
  • Comportamentos fora do padrão – Se o Waymo desacelerou ou parou, informar provocou esse comportamento (exemplo: esperando um ciclista passar)
  • Status da jornada – Endereço de destino, tempo previsto, região onde estamos passando, etc.

Outro elemento importante foi o som:

IMG_3434.JPG

Chamar atenção para a tela, indicar início e fim da corrida, cada som foi pensado para transmitir confiança.

O design em geral foi inspirado em elementos clássicos de transporte para criar familiaridade e segurança.

IMG_3448

Se um dia chegar aqui em São Paulo, provavelmente minha reação será parecida com a galera que pegou o Waymo pela primeira vez em Phoenix:

Você pode ouvir essa palestra na íntegra abaixo:

Um comentário em “SXSW Interactive – 6º dia – Desenvolvedores, Machine Listening e Carros Autônomos em ação

Os comentários estão encerrados.