#24 AI: Proprietary Data vs Open Source e o cenário geopolítico da tecnologia
AI | Proprietary Data vs Open Source
Zuckerberg e seus representantes querem que outras empresas usem e lucrem livremente com o novo software de inteligência artificial que a Meta está desenvolvendo, uma decisão que pode ter grandes implicações para outros desenvolvedores de AI e companhias que vêm adotando a tecnologia.
A empresa já fez algo semelhante no passado com o React, uma biblioteca JavaScript desenvolvida internamente que migrou para o código aberto e se tornou um padrão da indústria, com uma comunidade ativa e vibrante de desenvolvedores que contribuem com código e recursos para ajudar a melhorar a tecnologia. Em AI, a estratégia envolve lançar modelos de código aberto que serão disponibilizados a qualquer usuário.
No caminho contrário, a OpenAI está indo para um lado de proprietary data. A pergunta que fica é: quem vai vencer essa corrida? Difícil dizer. O mercado tem tentado responder a essa pergunta mas a verdade é que ninguém sabe ainda.
Recentemente, um amigo compartilhou uma provocação e eu gostei bastante da sua visão. Para ele, o único modelo de negócios open source que realmente funcionou foi a abertura do código da tecnologia oferecendo consultoria/ferramentas superiores (MongoDB, Confluent com Kafka, Databricks com Spark, etc). E, de fato, isso resolve bem problemas que exigem escala e complexidade massivas.
O movimento da Meta gera oportunidade para a criação de um novo modelo de cloud infrastructure, deixando a empresa do Zuckerberg apta a competir com Amazon (AWS), Google (Google Cloud) e Microsoft (Azure) em um mercado que ainda não penetraram.
De qualquer maneira, vale ressaltar que o maior beneficiário costuma ser aquele com o maior repositório - o que favorece, e muito, a Meta. Se pensarmos que uma correção de bug ou que um novo recurso no React geram mais valor para a empresa que tiver mais usuários utilizando Javascript, a Meta se dá bem. Assim como, se pensarmos que melhorar um LLM open source beneficia a empresa com o maior volume de textos proprietários e interações mais baseadas em texto, quem pontua novamente? Isso mesmo, Meta.
Não dá para falar de proprietary data sem mencionar o que aconteceu com o Reddit nos últimos dias. A empresa aumentou os preços da sua API para terceiros, o que gerou revolta. Alguns dos clientes mais populares afirmam que os custos para manter seus aplicativos funcionando podem chegar a milhões de dólares por ano. Em protesto, mais de 8.000 comunidades do Reddit ficaram inacessíveis.
Geopolítica de AI
Quando se trata de inovação e criações extremamente disruptivas, é quase impossível não abordar regulação. E os movimentos para que a AI se enquadre nos limites das leis têm se intensificado.
Com a promessa de mitigar os riscos da inteligência artificial à sociedade, o Parlamento Europeu aprovou na última semana o “EU AI Act” (Lei de IA da União Europeia), marco regulatório da IA e o primeiro do tipo no mundo. A expectativa é que a decisão gere o “efeito Bruxelas” e incentive outros países a adotarem regulações próprias, como o Brasil – cujo projeto do tipo voltou ao debate no Congresso neste ano.
O principal ponto do EU AI Act está em separar diferentes modelos de inteligência artificial no que os eurodeputados chamam de “abordagem baseada em risco”. Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância). A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados.
Um novo estudo descobriu que a produtividade dos desenvolvedores diminuiu em 50% quando o ChatGPT foi proibido na Itália. Mas, se tratando de pessoas habilidosas e engenhosas como os devs, maneiras de contornar a proibição foram encontradas e a produtividade se recuperou em apenas dois dias.
Até 2030, o Reino Unido será “uma superpotência científica e tecnológica”. Isso foi afirmado pelo primeiro-ministro britânico Rishi Sunak, essa semana, com o adendo de que ele tem o objetivo de levar o país à prosperidade por meio das oportunidades oferecidas pela IA. Sunak também afirmou que o país utilizará a IA para aumentar a produtividade e o crescimento econômico.
A The Economist, no entanto, não está tão crente disso. Segundo o veículo, para o Reino Unido prosperar no setor de inteligência artificial, muito terá que mudar e o Reino Unido agir rapidamente para obter alguma vantagem regulatória. O objetivo deve ser um conjunto pragmático de regras que mantenham a IA segura, em algum lugar entre a permissividade do Velho Oeste e o que provavelmente será um labirinto regulatório na União Europeia."
Em um movimento surpreendente, o governo do Japão reafirmou que não aplicará direitos autorais sobre os dados usados no treinamento de IA. A política permite que a IA use quaisquer dados “independentemente de serem para fins não-lucrativos ou comerciais”. Keiko Nagaoka, Ministra da Educação, Cultura, Esportes, Ciência e Tecnologia do Japão, confirmou a postura ousada na reunião local, dizendo que as leis do Japão não protegerão materiais protegidos por direitos autorais usados em conjuntos de dados de IA.
O cientista-chefe de inteligência artificial da Meta compartilhou no Twitter que o Japão se tornou "um paraíso para o aprendizado de máquina".
Abu Dhabi está criando um modelo de inteligência artificial em larga escala, o Falcon 40B. O LLM fundamental com 40 bilhões de parâmetros e treinado em um trilhão de tokens estará disponível em código aberto para pesquisa e uso comercial.
O braço de investimento comercial do Conselho de Pesquisa de Tecnologia Avançada (ATRC), VentureOne, disse que também apoiaria ideias viáveis que surgissem do uso do modelo.