Na newsletter dessa semana sobre o universo das AIs Generativas falamos de empresas que estão prometendo, de empresas que estão entregando e de empresas que estão correndo atrás do prejuízo...
Na newsletter dessa semana sobre o universo das AIs Generativas falamos de empresas que estão prometendo, de empresas que estão entregando e de empresas que estão correndo atrás do prejuízo. | ||
Os temas de hoje são: | ||
O plano da Anthropic para ultrapassar a OpenAI; Segmentação de imagens com AI; Google e DeepMind unem forças; Crie gráficos e converse com seus dados; Gere memes a partir de fotos. | ||
News | ||
O plano da Anthropic para ultrapassar a OpenAI | ||
A Anthropic é uma start-up de pesquisa em AI criada em 2020 por ex-funcionários da OpenAI. Algumas semanas atrás, ela lançou o seu próprio chatbot, Claude, que tem capacidades similares ao ChatGPT (com a versão 3.5 do GPT), mas é menos capaz de produzir conteúdo ofensivo e mais confiável (nesse vídeo nós explicamos como o Claude funciona). | ||
| ||
A grande notícia é que, recentemente, em um dos documentos utilizados no pitch de uma rodada de investimentos, a Anthropic revelou seu ambicioso plano de 4 anos e 5 bilhões de dólares para ultrapassar a OpenAI. | ||
A empresa, que já recebeu mais de U$ 1 bilhão em investimentos, pretende arrecadar outro bilhão nos próximos 18 meses. Esse valor será aplicado no desenvolvimento de um modelo de inteligência artificial 10x mais capaz do que o modelo de AI mais poderoso atualmente. | ||
A start-up pretende acelerar o desenvolvimento, uma vez que acredita que "as empresas que treinarem os melhores modelos de 2025/26 estarão muito à frente para que alguém as alcance nos ciclos subsequentes". | ||
Mas, mesmo que muitos estejam pedindo que o desenvolvimento das AIs sejam pausados, a OpenAI não dá sinais de estar indo mais devagar. Então o desafio não será pequeno para a Anthropic. | ||
Segmentação de imagens com AI | ||
O Meta AI (departamento de pesquisa em AI do Facebook) vem contribuindo bastante para o ecossistema de Inteligências Artificiais. Em uma das nossas newsletters anteriores, nós falamos sobre o LLaMA, o grande modelo de linguagem de código aberto lançado por eles e agora relatamos outro grande lançamento: SAM -Segment Anything Model (em português, "modelo segmente qualquer coisa"). | ||
Com o SAM, é possível identificar e selecionar objetos em imagens de maneira automática. Isso, pois ele aprendeu uma noção geral do que são objetos e é capaz de gerar "máscaras" (masks) para qualquer objeto em qualquer imagem ou vídeo. | ||
| ||
Esse modelo é considerado fundacional e está livremente disponível para download e para experimentações. | ||
Mas, seja sendo integrado a outros grandes modelos de AI, utilizado por criadores de conteúdo e editores de vídeo ou aplicado em campos como biologia ou geografia, o modelo pode ser útil para uma gama de aplicações | ||
Um exemplo de aplicabilidade já sendo explorado é a integração do SAM com a plataforma de geração de imagens Stable Diffusion. Com isso, é possível selecionar objetos em aplicações e gerar outros objetos ou texturas no lugar. O exemplo abaixo foi retirado deste tweet. | ||
| ||
Estou ansioso para ver mais aplicações para esta tecnologia e para os novos lançamentos do time do Meta. | ||
Google e DeepMind unem forças | ||
Com o lançamento do ChatGPT no final do ano passado, o Google viu o seu bilionário negócio de busca ameaçado. Desde então, a empresa decretou código vermelho, intensificou seus esforços no desenvolvimento de modelos de AI e lançou o seu próprio chatbot, o Bard. | ||
Mas não preciso dizer quem está ganhando essa corrida. A OpenAI lançou o GPT-4 na mesma época que o Bard e a diferença entre os dois chatbots ficou evidente. | ||
E o Google sabe disso. | ||
Por desespero ou não, fato é que o Google Brain (laboratório de pesquisa do Google) e o DeepMind (laboratório de pesquisa em inteligência artificial adquirido pelo Google) uniram forças para desenvolverem, juntos, um grande modelo de linguagem com capacidades para bater de frente com o GPT-4, da OpenAI. | ||
| ||
O DeepMind foi adquirido pelo Google em 2014 e, há quase uma década, desenvolve tecnologias para ele. O laboratório tem até seu próprio modelo de linguagem, Sparrow, que deve ser lançado no futuro. | ||
Mas apesar dessa aquisição ter dado frutos ao Google, existe uma rixa interna entre DeepMind e Google Brain. E os dois laboratórios, que sempre trabalharam separadamente, agora irão se unir para tentar criar algo grande o suficiente. | ||
No entanto, uma coisa que os dois parecem ter em comum é a cultura. | ||
| ||
A opinião de pessoas que já tiveram contato com funcionários do Google é a de que eles estão bastante confortáveis e não possuem a "gana" dos membros da, jovem e inovativa, OpenAI. | ||
Só o futuro dirá, mas, apesar dos pesares, eu não subestimaria o Google... Ainda não. | ||
Indicações | ||
GraphMaker | ||
Crie gráficos instantaneamente e converse com suas planilhas por meio de AI | ||
MemeCam | ||
Gere memes a partir de imagens utilizando Inteligência Artificial | ||
Dica de Uso | ||
Se você já viu uma imagem gerada por AI e ficou pensando o que a pessoa que gerou escreveu no prompt para obter aquele resultado, com esse novo comando do MidJourney o seu problema estará resolvido. | ||
O comando é /describe e te permite transformar imagens em texto. Para usar é muito simples: | ||
| ||
Esse recurso está disponível apenas para assinantes do MidJourney, mas você pode utilizar essa plataforma gratuita e muito boa como alternativa para essa funcionalidade. | ||
Pensamento do Dia | ||
Para se aproveitar dos benefícios das Inteligências Artificiais Generativas na sua vida e nos seus negócios, comece pequeno. | ||
Não tente abraçar o mundo e transformar todas as tarefas de uma só vez. Melhor focar em poucas atividades e ampliá-las apenas quando tudo estiver assimilado. | ||
Por hoje é só! | ||
Espero que o conteúdo esteja sendo interessante e informativo! | ||
Não se esqueça de se inscrever na newsletter, se você não é inscrito, e de nos seguir nas redes sociais (@revolucao.ai). | ||
Tenha uma ótima semana e até segunda! |