{"id":3229,"date":"2025-10-06T16:08:42","date_gmt":"2025-10-06T14:08:42","guid":{"rendered":"https:\/\/tecnologia.euroinnova.com\/prueba-gemma-la-nueva-inteligencia-artificial-de-google\/"},"modified":"2025-10-14T11:04:39","modified_gmt":"2025-10-14T09:04:39","slug":"google-lance-gemma","status":"publish","type":"post","link":"https:\/\/tecnologia.euroinnova.com\/fr\/google-lanza-gemma","title":{"rendered":"Essayez Gemma, la nouvelle intelligence artificielle de Google"},"content":{"rendered":"<p dir=\"ltr\">L'intelligence artificielle pr\u00e9f\u00e9r\u00e9e de Google n'est plus <a href=\"https:\/\/tecnologia.euroinnova.com\/fr\/google-gemini\/\" target=\"_blank\" rel=\"noopener\">G\u00e9meaux<\/a>, mais Gemma. Gemma est une famille de\u00a0<strong>les mod\u00e8les linguistiques open source cr\u00e9\u00e9s par Google<\/strong> bas\u00e9s sur la m\u00eame technologie que celle utilis\u00e9e dans les puissants mod\u00e8les Gemini. Il s'agit de mod\u00e8les l\u00e9gers et polyvalents, con\u00e7us pour permettre aux d\u00e9veloppeurs et aux chercheurs d'autres domaines techniques d'exp\u00e9rimenter et de cr\u00e9er de nouvelles applications d'intelligence artificielle.<\/p>\n<p dir=\"ltr\">Alors que Google devance ses concurrents dans la recherche sur l'IA depuis des ann\u00e9es, ce n'est que maintenant qu'il a lanc\u00e9 les mod\u00e8les Gemma, qui se distinguent par le fait qu'ils sont sp\u00e9cifiquement con\u00e7us pour les t\u00e9l\u00e9phones mobiles.<\/p>\n<p dir=\"ltr\">Ainsi, <strong>Gemma 2<\/strong>, Le mod\u00e8le Google r\u00e9cemment annonc\u00e9, qui vise \u00e0 pouvoir \u00eatre int\u00e9gr\u00e9 en douceur dans les petits smartphones sans en compromettre les performances, est un d\u00e9fi num\u00e9rique digne d'une grande entreprise technologique comme Google !<\/p>\n<h2 dir=\"ltr\" id=\"que-ofrece-gemma-2-frente-a-los-modelos-de-meta-y-openai\">Qu'offre Gemma 2 par rapport aux mod\u00e8les Meta et OpenAI ?<\/h2>\n<p dir=\"ltr\">La concurrence entre les g\u00e9ants de la technologie pour d\u00e9velopper des mod\u00e8les linguistiques plus avanc\u00e9s est de plus en plus f\u00e9roce. <strong>Gemma 2, Meta Flame 3.1 et GPT-3.5<\/strong> par OpenAI sont trois des principaux concurrents dans la course \u00e0 l'intelligence artificielle. Cependant, si nous les comparons, nous constatons que Gemma 2 offre une valeur diff\u00e9rentielle ind\u00e9niable :<\/p>\n<h3 dir=\"ltr\" id=\"tamano-y-eficiencia\">Taille et efficacit\u00e9<\/h3>\n<p dir=\"ltr\">L'une des principales caract\u00e9ristiques de Gemma 2 est sa compacit\u00e9, c'est-\u00e0-dire qu'il <strong>offre une plus grande efficacit\u00e9 tout en occupant moins d'espace. <\/strong>Bien qu'il soit plus petit que ses concurrents, il atteint des performances comparables \u00e0 celles du GPT-3.5, ce qui en fait une option plus efficace en termes de ressources informatiques.<\/p>\n<h3 dir=\"ltr\" id=\"accesibilidad\">Accessibilit\u00e9<\/h3>\n<p dir=\"ltr\">Gemma 2 et Llama 3.1 sont con\u00e7us pour \u00eatre plus abordables que les mod\u00e8les OpenAI. Ils offrent tous deux<strong> versions open source<\/strong> afin que les d\u00e9veloppeurs puissent personnaliser et adapter les mod\u00e8les \u00e0 leurs besoins sp\u00e9cifiques. En revanche, les mod\u00e8les OpenAI ont tendance \u00e0 \u00eatre plus restreints et \u00e0 n\u00e9cessiter un acc\u00e8s au nuage.<\/p>\n<h3 dir=\"ltr\" id=\"aplicaciones\">Applications<\/h3>\n<p dir=\"ltr\">Ces trois mod\u00e8les ont un large \u00e9ventail d'applications, de la g\u00e9n\u00e9ration de textes cr\u00e9atifs \u00e0 la traduction automatique. Cependant, <strong>Gemma 2 se distingue par sa portabilit\u00e9<\/strong>, con\u00e7u pour les applications mobiles et les appareils IoT. Llama 3.1 se distingue \u00e9galement par son efficacit\u00e9, tandis que les mod\u00e8les d'OpenAI sont surtout connus pour leur capacit\u00e9 \u00e0 g\u00e9n\u00e9rer du texte de haute qualit\u00e9.<\/p>\n<h2 dir=\"ltr\" id=\"familia-gemma-tipos-de-aplicaciones\">Famille Gemma : types d'applications<\/h2>\n<p dir=\"ltr\">Comme nous le verrons, les mod\u00e8les Gemma sont regroup\u00e9s dans une famille tr\u00e8s large et tr\u00e8s vari\u00e9e :<\/p>\n<ul>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>Gemma 2B et Gemma 7B : <\/strong>Ce sont les mod\u00e8les de base de la famille. Ils se distinguent principalement par leur taille (2 milliards et 7 milliards de param\u00e8tres respectivement), qui influe sur leur capacit\u00e9 et leur complexit\u00e9. Ce sont des mod\u00e8les tr\u00e8s flexibles qui peuvent \u00eatre adapt\u00e9s \u00e0 une grande vari\u00e9t\u00e9 de t\u00e2ches, de la g\u00e9n\u00e9ration de texte \u00e0 la traduction.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>CodeGemma : <\/strong>Comme son nom l'indique, ce mod\u00e8le est sp\u00e9cialis\u00e9 dans les t\u00e2ches li\u00e9es \u00e0 la programmation. Il peut g\u00e9n\u00e9rer du code, compl\u00e9ter des lignes de code et m\u00eame expliquer des concepts de programmation. C'est un outil tr\u00e8s utile pour les d\u00e9veloppeurs qui cherchent \u00e0 automatiser certaines t\u00e2ches ou \u00e0 apprendre de nouveaux langages de programmation.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>RecurrentGemma :<\/strong> Ce mod\u00e8le de langage ouvert, comme Gemma, est con\u00e7u pour r\u00e9pondre \u00e0 des questions, r\u00e9sumer des textes et r\u00e9fl\u00e9chir sur un large \u00e9ventail de sujets. Cependant, il occupe moins d'espace dans la m\u00e9moire de l'ordinateur, offre plus de puissance et fonctionne plus rapidement.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>PaliGemma : <\/strong>Il s'agit d'un mod\u00e8le de vision et de langage qui peut traiter \u00e0 la fois des images et du texte. Il sert un large \u00e9ventail d'applications telles que la description d'images, l'enregistrement, la r\u00e9ponse \u00e0 des questions graphiques, l'identification faciale et la d\u00e9tection d'objets.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>BouclierGemme :<\/strong> Il est programm\u00e9 comme un filtre qui bloque les contenus pr\u00e9judiciables tels que les discours haineux, les contenus pornographiques et violents, afin de rendre les interactions des utilisateurs avec l'IA plus s\u00fbres et plus respectueuses.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>GemmaScore :<\/strong> Il s'agit d'un mod\u00e8le con\u00e7u pour \u00e9valuer et optimiser les performances des autres mod\u00e8les de la famille Gemma. Les d\u00e9veloppeurs peuvent ainsi am\u00e9liorer en permanence leurs syst\u00e8mes d'IA.<\/p>\n<\/li>\n<\/ul>\n<h2 dir=\"ltr\" id=\"como-puedo-probar-gemma-2\">Comment puis-je tester Gemma 2 ?<\/h2>\n<p dir=\"ltr\">Google a lanc\u00e9 son nouveau mod\u00e8le d'intelligence artificielle \u00e0 la fin du mois de juin. <strong>est d\u00e9sormais disponible dans le monde entier.<\/strong> Bien qu'il faille s'attendre \u00e0 ce que Google publie des mises \u00e0 jour et des versions am\u00e9lior\u00e9es de ce nouveau mod\u00e8le d'IA, vous pouvez d'ores et d\u00e9j\u00e0 avoir un aper\u00e7u de son plein potentiel dans l'application <a href=\"https:\/\/ai.google.dev\/\" target=\"_blank\" rel=\"noopener\">Google AI Studio.<\/a><\/p>\n<p dir=\"ltr\">Il suffit de cliquer sur le lien et de s\u00e9lectionner le mod\u00e8le que vous souhaitez utiliser. Dans ce cas, vous pouvez s\u00e9lectionner soit Gemma 2 2B, soit Gemma 2 9B, soit le mod\u00e8le le plus r\u00e9cent, <strong>Gemma 2 27B.<\/strong> Qu'attendez-vous ?<\/p>","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial de Google favorita ya no es Gemini, sino Gemma. Gemma es una familia de\u00a0modelos de lenguaje de [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":811,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3229","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categorizar"],"acf":[],"_links":{"self":[{"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/posts\/3229","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/comments?post=3229"}],"version-history":[{"count":0,"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/posts\/3229\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/media\/811"}],"wp:attachment":[{"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/media?parent=3229"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/categories?post=3229"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/fr\/wp-json\/wp\/v2\/tags?post=3229"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}