Meta Sigue la Tendencia de Google al Publicar Modelos de IA Abiertos
21 Feb. 2024
-
La medida puede atraer a los ingenieros de software a desarrollar la tecnología de Google y fomentar el uso de su nueva y rentable división en la nube.
Redacción /CAMBIO22
Google presentó el miércoles nuevos modelos de inteligencia artificial (IA) que los desarrolladores externos pueden hacer suyos, tras iniciativas similares de Meta Platforms y otras empresas.
La filial de Alphabet ha declarado que particulares y empresas pueden crear gratuitamente software de IA basado en su nueva familia de “modelos abiertos”, denominada Gemma. La empresa pone a disposición del público datos técnicos clave, como los denominados pesos de los modelos.
La medida puede atraer a los ingenieros de software a desarrollar la tecnología de Google y fomentar el uso de su nueva y rentable división en la nube. Los modelos están “optimizados” para Google Cloud, donde los clientes que los utilicen por primera vez obtendrán 300 dólares en créditos, según la empresa.
Google publica modelos de IA ‘abiertos’; Meta sigue la tendencia
Google no ha llegado a convertir Gemma en un producto de “código abierto”, lo que significa que la empresa aún puede intervenir en el establecimiento de las condiciones de uso y propiedad. Algunos expertos han afirmado que la IA de código abierto se presta a abusos, mientras que otros han defendido este enfoque para ampliar el conjunto de personas que pueden contribuir a la tecnología y beneficiarse de ella.
Con el anuncio, Google no ha hecho abiertos sus modelos de mayor tamaño, conocidos como Gemini, a diferencia de Gemma. Los modelos Gemma tienen un tamaño de entre 2,000 millones o 7,000 millones de parámetros, es decir, el número de valores diferentes que un algoritmo tiene en cuenta para generar resultados.
Los modelos Llama 2 de Meta tienen un tamaño de entre 7,000 millones y 70,000 millones de parámetros. Google no ha revelado el tamaño de sus modelos Gemini más grandes. En comparación, el modelo GPT-3 de OpenAI anunciado en 2020 tenía 175,000 millones de parámetros.
Fuente: FORBES
ACC