
by paul courtaud
Détail
View more



La taille du contexte
La fenêtre de contexte définit la "mémoire" d'un modèle d'IA générative. Voici comment les principaux modèles se comparent, en tokens et en équivalent de pages standard. Une grande fenêtre de contexte permet d'analyser davantage de documents simultanément. Les modèles récents comme Gemini 1.5 Pro atteignent des capacités impressionnantes avec l'équivalent de 5000 pages, surpassant largement les modèles précédents comme Llama 2 qui ne gère que l'équivalent de 10 pages.
Taille des modèles
Taille des modèles




L'orchestration intelligente transforme des systèmes isolés en une entité cohérente et performante.






McKinsey & Company
LLM to ROI: How to scale gen AI in retail
We look at how leveraging generative AI in retail could unlock up to $390 billion in value, enhancing margins and reimagining the customer experience.


"It's not about AI replacing humans, it's about humans who use AI replacing those who don't."