Conoce a Gemini el modelo de IA más grande y poderoso de Google
Conoce a Gemini, el modelo de IA más grande y poderoso de Google
Este modelo de IA de última generación superó a ChatGPT en casi todos los benchmarks académicos.
Cuando OpenAI lanzó ChatGPT en noviembre pasado, había una pregunta urgente en la mente de todos: ¿qué están haciendo los gigantes tecnológicos?
¿Cuándo responderán empresas como Google a este desarrollo?
Ahora tenemos nuestra respuesta.
El 6 de diciembre de 2023, Google anunció su último modelo de IA: Gemini.
- ¡La Bendición de la Dimensionalidad?! (Parte 1)
- Investigadores del MIT y de FAIR Meta revelan RCG (Generación de imágenes condicionadas por la representación) un innovador marco de IA en la generación de imágenes sin condiciones de clase.
- Referencia de Benchmark temporal
Según el CEO de la compañía, Sundar Pichai, esta tecnología es un gran avance en inteligencia artificial y afectará prácticamente todos los productos de Google.
Gemini viene en 3 tamaños
La versión actual del modelo se llama Gemini 1.0. Puede trabajar con texto, imágenes, videos y audio, y viene en 3 tamaños diferentes.
Gemini Nano es una versión pequeña y más eficiente que se puede ejecutar nativamente y en dispositivos Android.
Gemini Pro, la versión intermedia, encuentra un equilibrio entre capacidad y eficiencia. Este modelo funciona significativamente mejor que el modelo estrella anterior de Google, PaLM-2. Actualmente alimenta el chatbot Bard.
Finalmente, Gemini Ultra es el modelo más potente de la serie. Sobresale en el razonamiento complejo y ha superado al modelo GPT-4 de OpenAI en varios benchmarks.
Gemini Ultra aún no se ha puesto a disposición del público. Google ha anunciado que el modelo se lanzará a principios del próximo año, aunque no se ha proporcionado un marco de tiempo específico.
¿Cómo difiere Gemini de los modelos GPT de OpenAI?
El ChatGPT de OpenAI está alimentado actualmente por 2 modelos de IA: GPT-3.5 para la versión gratuita y GPT-4 para la versión de pago.
Hace algunos meses, OpenAI anunció que GPT-4 tenía capacidades multimodales (es decir, podía procesar texto, audio e imágenes).
Sin embargo, aunque puede procesar varios tipos de datos, el diseño y la funcionalidad principal del modelo se centran en entradas y salidas basadas en texto.
Esto significa que GPT-4 es un marco de trabajo basado en texto y…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Crea relaciones de muchos a uno entre columnas en una tabla sintética con UDFs de PySpark
- IA generativa 2024 y más allá Un vistazo al futuro
- Samet honrado con el Premio ACM SIGSPATIAL al Impacto de por Vida
- La minería de Bitcoin utilizó más agua que la ciudad de Nueva York el año pasado.
- Principales 8 tendencias de IA de 2023 Un año en revisión
- Reino Unido afirma que Rusia ha atacado a legisladores y otros con ciberataques durante años
- Controla los costos de la IA a través de la gestión ágil de proyectos de ciencia de datos