EmTech Digital 2022 e o futuro da AI

Share
(é fácil me achar na foto: procure por uma máscara N95 😷)

Quem acompanhou a minha cobertura do EmTech Digital no MIT deve ter percebido o quanto eu estava empolgado. Eram muitas emoções juntas, afinal: a primeira viagem desde o início da pandemia, o primeiro evento presencial, minha primeira visita ao MIT, a oportunidade de participar presencialmente de um debate tão importante e, eu confesso, uma certa ansiedade de ver tanta gente em Boston e no evento sem máscara nenhuma. Fiquei tão tenso que não tirei minha N95 para nada.

A máscara não me impediu, porém, de interagir e conversar e perguntar e opinar e fazer lives. Algumas das minhas perguntas, aliás, eu consegui registrar (vídeo aí abaixo), outras infelizmente não, e muitas eu não tive chance de colocar, mas conversando aqui e ali com participantes de todo canto eu percebi que eles também saíram de lá com dúvidas em aberto.

Os gigantes de tech estavam todos lá: Microsoft, Google, Adobe, Baidu, Amazon, cada um com cases e números mais impressionantes que o outro, e o evento poderia ser como tantos outros mais um desfile de carros alegóricos de números fantasiosos mas, felizmente, um dos grandes méritos do EmTech poderia se resumir no lema da Royal Society inglesa: Nullius in Verba, falar só não basta, e o ao final de cada apresentação todo palestrante, poderoso ou não, é sabatinado por mediadores bastante inquisitivos e também pelas perguntas tanto da plateia quanto dos participantes online.

O evento se iniciou com a comemoração do aniversário de 10 anos do Deep Learning, e fiquei fã logo de saída do jornalista Will Douglas Heaven, mediador brilhante e apresentador simpaticíssimo.

Vou compartilhar com vocês as palestras que mais me inspiraram, incluindo as perguntas que fiz ou queria ter feito. Aí vão elas:

Consegui fazer uma pergunta para o Andrew Ng, que palestrou sobre maneiras de otimizar o uso de dados para treinar AI: estamos falando aqui de como otimizar o uso de dados, mas e os dados ausentes? Não estaríamos usando os mesmos dados de sempre sobre as mesmas pessoas de sempre deixando o resto do mundo de fora?

Fiz uma pergunta também para a Haniyeh Mahmoudian, que palestrou sobre Thought Leadership in Responsible AI: como falar de ética num ambiente onde a meta é o crescimento a qualquer custo?

Ela me deu uma boa sugestão: tentar demonstrar o quanto um escândalo de ética pode comprometer os resultados financeiros. Gostei.

Emplaquei uma pergunta para o Prem Natarajan, VP da Alexa na Amazonm que palestrou sobre Alexas aprendendo “na borda” com cada usuário: se cada Alexa aprender localmente com cada usuário, isso quer dizer que a Alexa da mediadora, muito mais inteligente do que eu, vai ficar muito mais esperta que a minha Alexa?

A resposta dele foi boa: a ideia é que a mediadora reconheça a Alexa dela como cada vez mais inteligente e que eu reconheça a minha como cada vez mais inteligente, e eu não ficaria satisfeito com o rumo que a Alexa da mediadora tomou.

O que eu queria ter perguntado para o Andrew Moore do Google, que fez uma palestra muito interessante sobre como garantir o sucesso da implementação de AI: o hype excessivo sobre o potencial da AI não estaria criando expectativas irreais? (Eu estava pensando nos resultados decepcionantes do Watson até agora ou os tropeços do Google na área de saúde)

O que me deixou muito, mas muito feliz foi ter feito para Nicol Turner Lee (The AI Policies We Need) uma pergunta que estava me consumindo o dia todo: como fazer para que a desigualdade e a injustiça não sejam reforçadas pela AI que deixa de lado dados invisíveis sobre pessoas invisíveis?

a resposta dela foi maravilhosa e está neste vídeo aí abaixo, confira.

A apresentação da Adobe foi bastante impressionante, e o tema era o design tanto de produtos quanto de componentes e até mesmo de arquitetura usando processos generativos e AI e os resultados são de cair o queixo, coisas que nenhum humano imaginaria sozinho. Consegui puxar prosa com o evangelista da Adobe no coffee break e perguntei para ele sobre o quanto esse design generativo depende de novas tecnologias de manufatura, como impressão 3D por exemplo. A resposta? Visceralmente.

Essa moça me deixou meio apavorado, confesso. A Julia Xung Li trabalha na Baidu e veio nos apresentar um projeto que basicamente transforma um texto… em um vídeo bem acabado. O exemplo era prosaico: uma moça foi fazer um passeio numa região turística e escreveu sobre as festividades que assistiu. O robô interpretou o texto, buscou vídeos pertinentes, editou, acrescentou uma locução sintética, uma trilha sonora e voilà, um vídeo super redondinho com as glórias do folclore nacional.

Fiquei amedrontado por várias razões:

  1. o robô chinês certamente segue as diretrizes do PC chinês e só vai buscar conteúdos aprovados pelo partidão
  2. pra quem produz fake news isso é um sonho, e não há como o jornalismo ou a educação científica competir com algo produzido nessa escala e nessa velocidade
  3. criadores de conteúdo como eu estão com os dias contados…

Poupei-a das minhas perguntas. Ela certamente não poderia respondê-las.

Gostei muito da palestra do Sheldon Fernandez, cuja startup se esforça por criar explicabilidade nas decisões tomadas não em AI’s na nuvem, mas sim em AI’s que estão na “borda”, nos carros, nos aparelhos portáteis, nas aeronaves. O tema da explicabilidade, que é a esperança de que um robô consiga explicar e documentar como tomou uma decisão acabou sendo um dos eixos centrais do evento, e o próprio Dave Ferrucci manifestou sua preocupação com o problema. Ninguém quer ser escravo de uma caixa preta que toma decisões inescrutáveis, não é?

Muito impressionante a apresentação do Ali Alvi da Microsoft, eu não tinha ideia do quão poderoso era o projeto Turing da Microsoft. Três coisas me impressionaram: ver a rapidez crescente com a qual uma AI alcança a capacidade humana (veja a foto abaixo), a noção de que a partir de um certo tamanho de rede neural e de parâmetros e de dados a capacidade decola além do esperado e a afirmação meio melancólica que AI agora é coisa de peixe grande e os pequenos nem deveriam tentar concorrer com os colossos.

Uma reflexão que vale para várias outras palestras impressionantes dos outros gigantes: sim, estamos impressionados com o que vocês são capazes de fazer, mas e daí? Qual a visão de futuro? Qual o modelo de negócios? Estamos assistindo a mais uma corrida armamentista sem sentido pra ver quem tem a AI maior?

O Google mandou esse cara, provavelmente um gênio, para falar coisas que certamente empolgariam outros gênios, mas como não sou um gênio acho que foi uma oportunidade perdida. Eu esperava mais do Google, e novamente saí da palestra sem nenhuma luz sobre o futuro, sem nenhuma visão inspiradora. Empresas de tech têm que aprender que não adianta pregar para os convertidos, um pouco de carisma e multidisciplinaridade ajuda sempre.

Eu estava animado com a palestra da OpenAI mas acabei me decepcionando e ganhando um pesadelo novo: depois de uma apresentação meio xoxa sobre GPT-3 e 4, a moça resolveu tentar ser divertida mostrando como o novo projeto Dall-E é capaz de transformar um pedido em texto… numa imagem de qualidade fotográfica. O primeiro exemplo: faça uma cadeira que lembre um abacate. Resultado: três imagens perfeitas que poderiam estar num catálogo de móveis bizarros. Outro: faça gatos jogarem xadrez no estilo de Salvador Dali. Resultado? Veja a imagem acima.

Um pesadelo. Mais alguém sem a menor noção de quanto alguns dos trunfos da AI podem ser, como se diz em inglês, creepy no último.

Finalmente um case de negócios: a Wayfair demonstrando como usa AI em diferentes processos da empresa, desde busca por produtos até esforços de marketing. Belo exemplo, mas nada revolucionário. Ou talvez seja realmente revolucionário ver alguém conseguindo implementar o básico do básico, algo que a julgar pelos queixumes de vários presentes parece ser simplesmente inatingível.

Mais uma gafe comum em empresas de tech: mandar alguém com completa incapacidade de descer do salto alto. A representante da SAP demonstrou conhecimento vasto e profundo e, infelizmente, arrogância e postura autoritária. Isso não surpreende a quem já transitou pelo universo paralelo corporativo, é comuníssimo que executivos poderosos esqueçam que a sua estatura volta ao normal quando sai dos limites da fiRma. Felizmente participou do debate uma figura encantadora e genial, David Simchi-Levi, um especialista em logística com uma visão fascinante da complexidade tanto da economia quanto da história, do clima e da geografia. Vou pesquisar mais a respeito do seu trabalho.

Esta palestra ilustra o que foi sem dúvida o eixo central de todo o evento: as implicações éticas da tecnologia e como dar visibilidade a tudo o que é deixado de lado em muitos modelos de AI.

Essa moça valeu meu dia: Tara Chklovski, CEO da Technovation, mostrou como a sua ONG empodera meninas no mundo todo através da tecnologia. Foi emocionante. Eu a procurei no coffee break para cobri-la de elogios e ela me convidou a conhecer o trabalho deles no Brasil. Farei isso.

Mais uma vez Google perdendo uma oportunidade de ser impactante: a moça muito simpática começou sua palestra falando sobre uma nova estratégia de aprendizado de robôs, onde uma dupla de robozinhos instiga um ao outro e se desafiam para aprenderem mais rapidamente. Em pouco tempo o papo ficou técnico demais (ao menos para mim) e, quando questionada sobre aplicações dessa técnica, ela acabou citando exemplos internos do Google, como melhoria no desempenho do seu assistente. Ok então. Saímos de novo sem nenhuma inspiração palpável.

A última palestra foi com uma lenda: Dave Ferrucci, um dos pais do Watson da IBM. Suas preocupações centrais: explicabilidade, o hype sobre Artificial General Intelligence e uma inquietude sobre o futuro da tecnologia. Quem diria…
Consegui fazer uma pergunta: se um humano sozinho não toma boas decisões, por que estamos propondo inteligências artificiais que aparentemente também tomam decisões sozinhas?

Ele me corrigiu e disse que as decisões que o Watson tomou no concurso do Jeopardy foram na verdade uma ponderação de vários agentes trabalhando em paralelo. Complementou dizendo que decisões coletivas nem sempre são boas, fazendo uma alusão meio irônica ao que a democracia vem gerando por aí.

E voilà, o evento chegou ao fim. Discussões riquíssimas, zero espaço para bullshitagem de patrocinadores, boas conversas de corredor e excelentes contatos novos. Quais as grandes lições para mim?

1. Ética importa mais do que nunca

2. Diversidade e transparência e inclusão importam mais do que nunca

3. Mesmo os gigantes ainda não sabem muito bem o que fazer com seus brinquedos tão poderosos.

Agora fica a dúvida: como trazer esse nível de consciência e questionamento para um mercado focado no crescimento a qualquer custo? Ainda não sei, mas vou continuar pondo meu coração e energia nisso.

Aqui vão alguns mimos, espero que você goste: um passeio pelo evento e pelo campus com uma câmera 360, wrap-ups diários e um encerramento bastante emocionado ao vivo e a cores. Divirta-se e… inspire-se!

Enquanto eu estava no evento eu fiz várias lives super empolgadas… no instagram. foi uma boa decisão? não sei… por isso juntei todas as lives num vídeo só, divirta-se 🙂

Ao final de cada dia fiz wrap-ups antes que minha memória de passarinho perdesse os detalhes para sempre: