Resumo do “Stanford Graph Learning Workshop 2023”

Luiz Felipe Mendes
7 min readOct 31, 2023

--

Introdução

Este documento contém um resumo e links importantes da minha participação no “Stanford Graph Learning Workshop 2023”.

Vou passar em cada uma das apresentações e escrever um resumo básico e colocando o link para o vídeo.

Palestras favoritas:

  • “Retrieving from Knowledge Bases for Large Language Models”
  • “Graph Representation Learning at Amazon”
  • “Next Generation Architectures for Graph ML”
  • Painel de discussão com indústria (minha participação)

Por que fui no evento?

Participei do evento a convite da Kumo.AI, empresa fundada por Jure Leskovec, professor de Ciência da Computação de Stanford e ex-colaborador do Pinterest, onde trabalhou com algoritmos de Grafo para recomendação.

Tivemos algumas conversas com a Kumo. Durante essas discussões, mencionei nosso algoritmo de grafos em uso, o FoodGraph, que é parte integral do nosso fluxo de recomendação. Jurec, então, me convidou para participar de um painel de profissionais da indústria que usam grafos.

O painel — Vídeo

Painel da indústria

O painel foi formado por

Isto é, o iFood se mostrou mais uma vez um grande player na área de tecnologia/AI. Importante até apontar que a VISA tem um time de Research na área mas que não tem modelos em produção nesse sentido.

As discussões foram sobre quais os desafios de se usar tecnologias de Deep Learning com Grafos no mundo real, quais desafios cada empresa ataca e como.

Impressões gerais

Minhas impressões gerais do evento foram positivas. Ficou evidente que o iFood está avançado em termos de tecnologia e que todas as empresas enfrentam desafios semelhantes de escalabilidade.

Foi perceptível que muitos desafios, como recomendação, transações financeiras, fraude, medicina e biotecnologia, podem ser efetivamente mapeados em grafos, uma abordagem que parece superar outras em termos de sucesso.

Chamou minha atenção a lacuna existente entre a teoria e a prática. Muitas vezes, uma tecnologia ou um paper pode parecer promissor, mas na prática, surgem desafios adicionais para implementar essa tecnologia nas empresas de forma escalável, integrada e monitorada.

Recebi vários elogios no evento por falar sobre as reais dificuldades de se colocar tecnologias de ponta em produção, pelo menos 4 pessoas vieram falar comigo que tem dificuldade de ver suas empresas “atuando como” Amazon ou Meta, dado que elas têm “dinheiro infinito” e muito mais tempo para investir nisso a longo prazo.

Palestras

Abertura pelo Jure LeskovecVídeo

Falou sobre a agenda do evento e explicou um pouco sobre o que são grafos e quais desafios conseguimos mapear e usar grafos.

Matthias Fey, PyG & Kumo.AI — Vídeo

A primeira palestra foi do Matthias que também é da Kumo.AI e ele falou sobre PyG e as novidades dessa biblioteca.

PyG (pytorch geometric) é um library para facilitar o uso de GNNs (graph neural networks) e é a base do produto da Kumo.AI. Ela já possui muito modelos já implementados e facilita a criação de novos por meio de funções de forwarding, storage e messaging.

“Machine Learning for Supply Chain Management” por Serina Chang, Stanford University & Qi Xiu, Hitachi — Vídeo

Essa foi uma palestra da estudante de PhD de Stanford junto com a Hitachi. O conteúdo é bem específico, focando no trabalho que fizeram sobre usar Machine Learning para melhorar os problemas comuns de empresas que têm uma grande cadeia de mantimentos.

A ideia geral é usar GNNs para modelar essa propagação de demanda futura e disrupções da cadeia. Por exemplo, se acabar no futuro a demanda de queijo vai ser muito grande e pode afetar a venda de pizzas, mesmo se aquele queijo tiver ido para venda de pão de queijo.

“Retrieving from Knowledge Bases for Large Language Models” por Michi Yasunaga, Stanford University — Vídeo

Essa foi uma das palestras mais interessantes e relevantes para o momento que vivemos de GenAI e LLMs. Justamente por falar sobre RAG (Retrieval Augmented Generation), só que nesse caso buscamos a informação em um grafo de conhecimento para depois usar uma LLM com mais contexto.

Além disso, eles cobrem como adicionar outros modais, no caso, como integrar imagem nesse fluxo de LLMs e grafos. Ele apresenta o DRAGON: Deep Bidirectional Language-Knowledge Graph Pretraining que é uma evolução do BERT que também usa um Knowledge Graph.

Achei bem interessante a forma de “fugir” de alguns erros de geração de imagens usando outras imagens como seeds.

“Graph Neural Networks for Declarative ML” por Weihua Hu, Kumo.AIVídeo

Essa é a palestra de “vendas” da Kumo. Aqui o Hu explica como a Kumo.AI funciona e porque faz sentido utilizar grafos para resolver vários problemas.

A Kumo.AI é uma ferramenta que se conecta com os dados da empresa por algo como S3, gerando o grafo e por meio de uma linguagem declarativa (tipo sql) você pode definir tarefas que serão mapeadas para uma GNN específica. Com isso você pode gerar um modelo de recomendação com 2 linhas de códigos na plataforma.

“Next Generation Architectures for Graph ML” por Joshua Robinson, Stanford UniversityVídeo

Uma palestra também interessante que começa discutindo sobre a mudança que os Transformers trouxeram para a área de texto e de imagem. E depois ele comenta sobre como poderíamos usar uma ideia similar para grafos.

“Large Language Models As AI Research Agents” por Qian Huang, Stanford UniversityVídeo

Qian apresenta aqui um experimento que ela fez para saber se LLMs conseguiriam “fazer o trabalho” de um pesquisador da área de Computação.

Então ela criou um fluxo que um agente LLM que pega um problema, tenta resolver com algum código e vai iterando no problema até melhorar o resultado, sempre gerando as hipóteses com base no que já funcionou bem ou não. Seria uma mistura de um agente LLM e um AutoML. A diferença de um AutoML é que esse agente consegue gerar um fluxo de pensamento e consegue gerar um código novo.

“From cell engineering to drug discovery: Predicting outcomes of multi-gene cell perturbations” por Yusuf Roohani, Stanford UniversityVídeo

Aqui o título já diz tudo, eles usam grafos para tentar prever como mudanças em genes mudam como as células irão agir ou reagir. É um exemplo bem específico sobre como aplicar a tecnologia, mas é bem interessante perceber o impacto na área de saúde.

Além disso, é interessante perceber que essa tecnologia é boa para prever interações complexas que seriam inviáveis de serem calculadas em todas opções possíveis.

“RecSys 2023, Intel-Kumo PyG collaboration and Foundation Models for Knowledge Graphs” por Ravi Motwani, Hongming Zheng & Michael Galkin, Intel LabsVídeo

Foi uma palestra sobre uma parceria do PyG com a Intel de como usar Gpus da intel para acelerar o treinamento e predição de GNNs.

É bem técnica, explicando um pouco de como trazer e escolher o que levar para memória da GPU para cada cálculo. E mostra que PyG com intel gerou melhorias relevantes em velocidade mantendo a qualidade.

“Graph Neural Network for Financial Data” por Mahashweta Das, VISAVídeo

Aqui Mahashweta fala sobre como o time de Research do Visa avalia o uso de grafos para a indústria de Financial.

É importante pontuar que um dos casos mais famosos de uso de grafos é em FRAUDE, sendo assim os times de cartão de crédito e outras empresas de pagamentos tendem a investir nesse tipo de tecnologia. Porém, hoje em dia a necessidade de avaliar as requisições em real-time impedem algumas dessas tecnologias de serem usadas focando apenas em qualidade.

“Graph Representation Learning at Amazon” por Karthik Subbian, AmazonVídeo

Gostei muito do apresentador e do tipo de desafio que ele cobre. Achei essa uma das palestras mais valiosas.

Ele comenta também sobre o desafio de como criar, disponibilizar e manter embeddings, que é uma discussão que já tivemos muito no iFood. Nesse ponto ele mostra algumas formas de resolver e sugere uma nova forma que seria um meio termo entre manter todos ou manter apenas a ultima versão, por meio de transformações de embeddings via funções.

“Zero-shot Causal Learning” por Hamed Nilforoshan, Stanford UniversityVídeo

Essa palestra eu achei interessante, utiliza tecnologia de grafos para tentar prever quais efeitos uma nova droga pode gerar em uma pessoa antes mesmo de iniciar o teste.

É uma mistura de grafos e casual inference com o foco na descoberta de novas drogas e predição de quais efeitos essas novas drogas devem gerar. Diminuindo o custo dos testes farmacológicos.

“Generative Modeling for Drug Discovery” por Minkai Xu, Stanford UniversityVídeo

Nessa palestra Xu fala sobre geração de grafos, similar a gerar imagens e texto com GenAI só que pensando em estruturas multidimensionais.

E uma aplicação para isso é gerar novas drogas e moléculas a partir das que já existem e do que queremos que elas façam.

“PyG and Modulus: An open-source framework for building, training, and fine-tuning Physics-ML models” por Rishi Puri & Mohammad Nabian, NVIDIAVideo

Para finalizar a NVIDIA veio falar de como sua framework Modulus pode ser usada nos problemas de grafos e outras aplicações que simulam física (partículas, líquidos e coisas assim). E novamente ela usa por baixo dos panos o PyG.

Sign up to discover human stories that deepen your understanding of the world.

Free

Distraction-free reading. No ads.

Organize your knowledge with lists and highlights.

Tell your story. Find your audience.

Membership

Read member-only stories

Support writers you read most

Earn money for your writing

Listen to audio narrations

Read offline with the Medium app

--

--

Luiz Felipe Mendes
Luiz Felipe Mendes

Written by Luiz Felipe Mendes

Co-founded Hekima, an AI company acqui-hired in 2020 by iFood. Head of Data Science at iFood — Recommendation and Search

No responses yet

Write a response