Après le récent lancement de Gemini, Google lance déjà Gemini 1.5, la nouvelle génération du modèle d’IA, capable de traiter un million de tokens, promettant une avancée dans la compréhension des longs contextes.
Ce qu'il faut retenir :
- Gemini 1.5 Pro offre des performances améliorées et une capacité de raisonnement sur de longs prompts grâce à une fenêtre de contexte d'un million de tokens ;
- Cette avancée permet à Gemini 1.5 de traiter et d'analyser des quantités massives d'informations, surpassant les capacités du modèle précédent, Gemini 1.0 Ultra ;
- Google met l'accent sur le développement responsable de Gemini, en accord avec ses principes d'IA.
Lancement de Gemini 1.5
Google a récemment dévoilé Gemini 1.5 Pro, le premier modèle Gemini 1.5, marquant une étape importante dans l'évolution de son intelligence artificielle conversationnelle (pour rappel, Gemini est le nouveau nom de Bard). Ce modèle, qui succède à Gemini 1.0 Ultra, se distingue par son efficacité accrue et sa capacité à raisonner sur des formes longues.
Sundar Pichai, PDG de Google, et Demis Hassabis, directeur de Google AI, ont souligné les améliorations significatives en termes de performance et d'architecture, permettant à Gemini 1.5 Pro de fonctionner au même niveau que le modèle 1.0 Ultra, mais avec moins de ressources informatiques.
Une fenêtre de contexte à 1 million de tokens
L'innovation majeure de Gemini 1.5 réside dans sa fenêtre de contexte d'un million de tokens, une première dans le domaine des modèles IA à grande échelle. Cette capacité étendue permet au modèle de traiter et d'analyser des volumes d'informations sans précédent, ouvrant la voie à de nouvelles possibilités dans la compréhension et le traitement des données complexes.
Les exemples donnés par Pichai, tels que la capacité du système à résumer l'intégralité des transcriptions de la mission Apollo 11 ou à analyser un film muet de 44 minutes de Buster Keaton, illustrent le potentiel de cette technologie pour révolutionner la manière dont nous interagissons avec l'IA.
Hassabis a déclaré que les premiers résultats montrent que Gemini 1.5 Pro maintient ses performances même si la fenêtre contextuelle atteint le million de tokens.
Toutefois, en version “grand public”, Gemini 1.5 Pro est lancé avec une fenêtre contextuelle standard, à 128 000 tokens. La version à un million de tokens n’est pour l’instant disponible que pour un groupe limité de développeurs et d’entreprises via Vertex AI et AI Studio. Aucune information n’a été donnée pour le moment quant à une disponibilité plus large.
Architecture et performances
Gemini 1.5 s'appuie sur une architecture Mixture-of-Experts (MoE), qui divise le modèle en plusieurs réseaux neuronaux “experts”. Cette approche permet une activation sélective des chemins les plus pertinents en fonction de l'entrée, améliorant considérablement l'efficacité du modèle. Les avancées dans l'architecture du modèle permettent à Gemini 1.5 d'apprendre des tâches complexes plus rapidement, tout en maintenant une haute qualité de performance, même lorsque la fenêtre de contexte est étendue à un million de tokens.
Développement responsable ?
Conformément aux principes d'IA de Google, Gemini 1.5 Pro a été soumis à des tests d'éthique et de sécurité exhaustifs, axés sur la sécurité du contenu et les préjudices représentationnels. D’après Sundar Pichai, ces évaluations rigoureuses garantissent que le modèle est déployé de manière responsable, en tenant compte des implications éthiques de son utilisation à grande échelle.
On rappelle tout de même que depuis son lancement, Gemini a eu quelques problèmes de conversations qui ont fuité dans les SERP et qu’il est recommandé de ne pas donner d’informations confidentielles. Faites donc toujours attention en utilisant Gemini !