{"id":3229,"date":"2025-10-06T16:08:42","date_gmt":"2025-10-06T14:08:42","guid":{"rendered":"https:\/\/tecnologia.euroinnova.com\/prueba-gemma-la-nueva-inteligencia-artificial-de-google\/"},"modified":"2025-10-14T11:04:39","modified_gmt":"2025-10-14T09:04:39","slug":"google-lanza-gemma","status":"publish","type":"post","link":"https:\/\/tecnologia.euroinnova.com\/en\/google-lanza-gemma","title":{"rendered":"Try Gemma, Google's new artificial intelligence"},"content":{"rendered":"<p dir=\"ltr\">La inteligencia artificial de Google favorita ya no es <a href=\"https:\/\/tecnologia.euroinnova.com\/en\/google-gemini\/\" target=\"_blank\" rel=\"noopener\">Gemini<\/a>, sino Gemma. Gemma es una familia de\u00a0<strong>modelos de lenguaje de c\u00f3digo abierto creados por Google<\/strong> a partir de la misma tecnolog\u00eda utilizada en los poderosos modelos Gemini. Son modelos ligeros y vers\u00e1tiles, dise\u00f1ados para que los desarrolladores e investigadores de otras \u00e1reas t\u00e9cnicas puedan experimentar y crear nuevas aplicaciones de inteligencia artificial.<\/p>\n<p dir=\"ltr\">Si bien Google lleva a\u00f1os de delantera respecto a sus competidores en investigaci\u00f3n de IA, no es hasta ahora que ha lanzado los modelos Gemma, que destacan por estar especialmente pensados para los tel\u00e9fonos m\u00f3viles.<\/p>\n<p dir=\"ltr\">Thus, <strong>Gemma 2<\/strong>, modelo recientemente anunciado en el seno de Google, tiene como objetivo poder incorporarse con fluidez en los reducidos smartphones sin ver mermado su rendimiento. \u00a1Un reto digital digno de una gran tecnol\u00f3gica como Google!<\/p>\n<h2 dir=\"ltr\" id=\"que-ofrece-gemma-2-frente-a-los-modelos-de-meta-y-openai\">\u00bfQu\u00e9 ofrece Gemma 2 frente a los modelos de Meta y OpenAI?<\/h2>\n<p dir=\"ltr\">La competencia entre los gigantes tecnol\u00f3gicos para desarrollar modelos de lenguaje m\u00e1s avanzados est\u00e1 cada vez m\u00e1s re\u00f1ida. <strong>Gemma 2, Llama 3.1 de Meta y GPT-3.5<\/strong> de OpenAI son tres de los principales contendientes en la carrera de la inteligencia artificial. Sin embargo, si los comparamos entre los tres, vemos que Gemma 2 ofrece un valor diferencial irrebatible:<\/p>\n<h3 dir=\"ltr\" id=\"tamano-y-eficiencia\">Tama\u00f1o y eficiencia<\/h3>\n<p dir=\"ltr\">Uno de los principales diferenciadores de Gemma 2 es su compacticidad, es decir, que <strong>ofrece mayor eficiencia ocupando menos espacio. <\/strong>A pesar de ser m\u00e1s peque\u00f1o que sus competidores, logra un rendimiento comparable a GPT-3.5, por lo que ser\u00eda una opci\u00f3n m\u00e1s eficiente en t\u00e9rminos de recursos inform\u00e1ticos.<\/p>\n<h3 dir=\"ltr\" id=\"accesibilidad\">Accessibility<\/h3>\n<p dir=\"ltr\">Tanto Gemma 2 como Llama 3.1 est\u00e1n dise\u00f1ados para ser m\u00e1s accesibles que los modelos de OpenAI. Ambos ofrecen<strong> versiones de c\u00f3digo abierto<\/strong> para que los desarrolladores puedan personalizar y adaptar los modelos a sus necesidades espec\u00edficas. Por el contrario, los modelos de OpenAI suelen estar m\u00e1s restringidos y requieren acceso a la nube.<\/p>\n<h3 dir=\"ltr\" id=\"aplicaciones\">Aplicaciones<\/h3>\n<p dir=\"ltr\">Los tres modelos tienen un amplio rango de aplicaciones, desde la generaci\u00f3n de texto creativo hasta la traducci\u00f3n autom\u00e1tica. Sin embargo, <strong>Gemma 2 destaca por su enfoque en la portabilidad<\/strong>, ideado para aplicaciones m\u00f3viles y dispositivos IoT. Llama 3.1 tambi\u00e9n se destaca por su eficiencia, mientras que los modelos de OpenAI son m\u00e1s conocidos por su capacidad para generar texto de alta calidad.<\/p>\n<h2 dir=\"ltr\" id=\"familia-gemma-tipos-de-aplicaciones\">Familia Gemma: tipos de aplicaciones<\/h2>\n<p dir=\"ltr\">Como veremos, los modelos Gemma se agrupan en una familia muy numerosa y variada:<\/p>\n<ul>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>Gemma 2B y Gemma 7B: <\/strong>Estos son los modelos base de la familia. Se diferencian principalmente en su tama\u00f1o (2 mil millones y 7 mil millones de par\u00e1metros respectivamente), lo que influye en su capacidad y complejidad. Son modelos muy flexibles que pueden adaptarse a una gran variedad de tareas, desde generaci\u00f3n de texto hasta traducci\u00f3n.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>CodeGemma: <\/strong>Como su nombre indica, este modelo est\u00e1 especializado en tareas relacionadas con la programaci\u00f3n. Puede generar c\u00f3digo, completar l\u00edneas de c\u00f3digo y hasta explicar conceptos de programaci\u00f3n. Es una herramienta muy \u00fatil para desarrolladores que buscan automatizar ciertas tareas o aprender nuevos lenguajes de programaci\u00f3n.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>RecurrentGemma:<\/strong> Este modelo de lenguaje abierto, al igual que Gemma, est\u00e1 pensado para contestar preguntas, resumir textos y reflexionar sobre un amplio rango de temas. Sin embargo, ocupa menos espacio en la memoria del ordenador, ofrece m\u00e1s potencia y trabaja de manera m\u00e1s r\u00e1pida.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>PaliGemma: <\/strong>Es un modelo de visi\u00f3n y lenguaje que puede procesar tanto im\u00e1genes como texto. Sirve para un amplio rango de aplicaciones como la descripci\u00f3n de im\u00e1genes, grabaci\u00f3n, la respuesta a preguntas en formato gr\u00e1fico, la identificaci\u00f3n facial y detecci\u00f3n de objetos.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>ShieldGemma:<\/strong> Est\u00e1 programado como un filtro que bloquea contenido da\u00f1ino como los discursos de odio o el contenido pornogr\u00e1fico y violento para que las interacciones de los usuarios con la IA sean m\u00e1s seguras y respetuosas.<\/p>\n<\/li>\n<li dir=\"ltr\" aria-level=\"1\">\n<p dir=\"ltr\" role=\"presentation\"><strong>GemmaScore:<\/strong> Es un modelo dise\u00f1ado para evaluar y optimizar el rendimiento de otros modelos de la familia Gemma. De este modo, los desarrolladores mejorar continuamente sus sistemas de IA.<\/p>\n<\/li>\n<\/ul>\n<h2 dir=\"ltr\" id=\"como-puedo-probar-gemma-2\">\u00bfC\u00f3mo puedo probar Gemma 2?<\/h2>\n<p dir=\"ltr\">Google lanz\u00f3 su nuevo modelo de inteligencia artificial a finales de junio, por lo que <strong>ya est\u00e1 disponible para todo el mundo.<\/strong> Si bien cabe esperar que Google lanzar\u00e1 actualizaciones y versiones mejoradas de este nuevo modelo de IA, puedes saborear ya todo su potencial en el <a href=\"https:\/\/ai.google.dev\/\" target=\"_blank\" rel=\"noopener\">Google AI Studio.<\/a><\/p>\n<p dir=\"ltr\">Solo tienes que acceder al enlace y seleccionar el modelo que quieres utilizar. En este caso puedes seleccionar o Gemma 2 2B, Gemma 2 9B y, el m\u00e1s reciente, <strong>Gemma 2 27B.<\/strong> \u00bfA qu\u00e9 esperas para probarlo?<\/p>","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial de Google favorita ya no es Gemini, sino Gemma. Gemma es una familia de\u00a0modelos de lenguaje de [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":811,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3229","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categorizar"],"acf":[],"_links":{"self":[{"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/posts\/3229","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/comments?post=3229"}],"version-history":[{"count":0,"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/posts\/3229\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/media\/811"}],"wp:attachment":[{"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/media?parent=3229"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/categories?post=3229"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tecnologia.euroinnova.com\/en\/wp-json\/wp\/v2\/tags?post=3229"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}