Amazon quiere alojar los modelos AI generativos personalizados de las empresas

AWS, el negocio de computación en la nube de Amazon, quiere convertirse en el lugar predeterminado para que las empresas alojen y ajusten sus modelos AI generativos personalizados.

Hoy, AWS anunció el lanzamiento de la Importación de Modelos Personalizados (en vista previa), una nueva característica en Bedrock, la suite de servicios de AI generativos de AWS enfocada en empresas. La característica permite a las organizaciones importar y acceder a sus modelos AI generativos internos como APIs totalmente gestionadas.

Los modelos propietarios de las empresas, una vez importados, se benefician de la misma infraestructura que otros modelos AI generativos en la biblioteca de Bedrock (por ejemplo, Llama 3 de Meta o Claude 3 de Anthropic). También recibirán herramientas para ampliar sus conocimientos, ajustarlos y poner en marcha salvaguardias para mitigar sus sesgos.

"Ha habido clientes de AWS que han estado ajustando o construyendo sus propios modelos fuera de Bedrock utilizando otras herramientas", dijo Vasi Philomin, VP de AI generativa en AWS, a TechCrunch en una entrevista. "Esta capacidad de Importación de Modelos Personalizados les permite llevar sus propios modelos patentados a Bedrock y verlos junto a todos los demás modelos que ya están en Bedrock, y usarlos con todos los flujos de trabajo que también ya están en Bedrock".

Importación de modelos personalizados

Según una encuesta reciente de Cnvrg, la subsidiaria de AI de Intel, la mayoría de las empresas están abordando la AI generativa construyendo sus propios modelos y refinándolos para sus aplicaciones. Las empresas dicen que ven la infraestructura, incluyendo la nube, como su mayor obstáculo para implementarlos, según la encuesta.

Con la Importación de Modelos Personalizados, AWS tiene como objetivo satisfacer esa necesidad mientras se mantiene al día con sus rivales en la nube. (El CEO de Amazon, Andy Jassy, insinuó tanto en su reciente carta anual a los accionistas)

Por algún tiempo, Vertex AI, el equivalente de Google a Bedrock, ha permitido a los clientes cargar modelos AI generativos, personalizarlos y servirlos a través de APIs. Databricks, también ha proporcionado desde hace tiempo conjuntos de herramientas para alojar y ajustar modelos personalizados, incluido su propio DBRX, que fue lanzado recientemente.

"Pregunté qué diferencia a la Importación de Modelos Personalizados, Philomin afirmó que es, y por extensión Bedrock, ofrece una amplia gama y profundidad de opciones de personalización de modelos en comparación con la competencia, añadiendo que "decenas de miles" de clientes utilizan hoy en día Bedrock.

"En primer lugar, Bedrock ofrece varias formas para que los clientes manejen la prestación de modelos", dijo Philomin. "En segundo lugar, tenemos una gran cantidad de flujos de trabajo en torno a estos modelos y ahora los clientes pueden estar junto a todos los demás modelos que ya están disponibles. Lo que a la mayoría le gusta de esto es la capacidad de experimentar con múltiples modelos diferentes utilizando los mismos flujos de trabajo, y luego realmente llevarlos a producción desde el mismo lugar".

Entonces, ¿cuáles son las opciones de personalización de los modelos a las que se hace referencia?

Philomin señala a Guardrails, que permite a los usuarios de Bedrock configurar umbrales para filtrar, o al menos intentar filtrar, las salidas de los modelos en busca de cosas como discurso de odio, violencia e información privada personal o corporativa. (Los modelos AI generativos son conocidos por salirse de los límites de manera problemática, incluyendo la filtración de información sensible; los modelos de AWS no han sido una excepción.) También destacó la Evaluación de Modelos, una herramienta de Bedrock que los clientes pueden usar para probar el rendimiento de un modelo, o varios, en función de un conjunto determinado de criterios.

Tanto Guardrails como la Evaluación de Modelos están ahora disponibles después de una vista previa de varios meses.

Me siento obligado a señalar aquí que la Importación de Modelos Personalizados sólo admite tres arquitecturas de modelo en este momento: Flan-T5 de Hugging Face, Llama de Meta y los modelos de Mistral. Además, Vertex AI y otros servicios rivales de Bedrock, incluidas las herramientas de desarrollo de AI de Microsoft en Azure, ofrecen características de seguridad y evaluación más o menos comparables (consulte Seguridad de Contenido de IA de Azure, evaluación de modelos en Vertex, etc.).

Lo que es único en Bedrock, sin embargo, son los modelos AI generativos de la familia Titan de AWS. Y, coincidiendo con el lanzamiento de la Importación de Modelos Personalizados, ha habido varios desarrollos destacados en ese sentido.

Modelos Titan mejorados

El Generador de Imágenes Titan, el modelo de texto a imagen de AWS, ahora está disponible de forma general tras su lanzamiento en vista previa el pasado noviembre. Como antes, el Generador de Imágenes Titan puede crear nuevas imágenes a partir de una descripción de texto o personalizar imágenes existentes, por ejemplo, cambiando el fondo de una imagen manteniendo los sujetos en la imagen.

En comparación con la versión preliminar, Titan Image Generator en GA puede generar imágenes con más "creatividad", dijo Philomin sin entrar en detalles. (Tu suposición sobre lo que eso significa es tan buena como la mía.)

Le pregunté a Philomin si tenía más detalles para compartir sobre cómo fue entrenado el Generador de Imágenes Titan.

En el debut del modelo el pasado noviembre, AWS fue vago sobre los datos exactos que utilizó en el entrenamiento del Generador de Imágenes Titan. Pocos proveedores revelan esta información fácilmente; ven los datos de entrenamiento como una ventaja competitiva y por lo tanto la guardan cerca.

Los detalles de los datos de entrenamiento también son una fuente potencial de demandas relacionadas con la propiedad intelectual, otro desincentivo para revelar mucho. Varios casos que se abren camino en los tribunales rechazan las defensas de uso legítimo de los proveedores, argumentando que las herramientas de texto a imagen replican los estilos de los artistas sin el permiso explícito de los artistas y permiten a los usuarios generar nuevas obras que se asemejan a los originales de los artistas sin que los artistas reciban pago alguno.

Philomin sólo me dijo que AWS utiliza una combinación de datos propios y con licencia.

"Tenemos una combinación de fuentes de datos propietarias, pero también licenciamos muchos datos", dijo. "De hecho, pagamos a los propietarios de derechos de autor tarifas de licencia para poder utilizar sus datos, y tenemos contratos con varios de ellos".

Es más detalle del que obtuvimos en noviembre. Pero tengo la sensación de que la respuesta de Philomin no satisfará a todos, especialmente a los creadores de contenido y a los éticos de la AI que abogan por una mayor transparencia en torno al entrenamiento de los modelos AI generativos.

En lugar de la transparencia, AWS dice que seguirá ofreciendo una política de indemnización que cubre a los clientes en caso de que un modelo Titan como Titan Image Generator regurgite (es decir, escupa una copia espejo de) un ejemplo de entrenamiento potencialmente protegido por derechos de autor. (Varios competidores, incluidos Microsoft y Google, ofrecen políticas similares que cubren sus modelos de generación de imágenes.)

Para hacer frente a otra amenaza ética apremiante, los deepfakes, AWS dice que las imágenes creadas con Titan Image Generator vendrán, como durante la vista previa, con una marca de agua invisible "resistente a manipulaciones". Philomin dice que la marca de agua se ha vuelto más resistente en el lanzamiento de GA a la compresión y a otras ediciones y manipulaciones de imágenes.

Abordando un territorio menos controvertido, le pregunté a Philomin si AWS, al igual que Google, OpenAI y otros, está explorando la generación de videos dada la emoción (y la inversión) en la tecnología. Philomin no dijo que AWS no lo estuviera haciendo... pero no insinuó más que eso.

"Obviamente, estamos constantemente buscando ver qué nuevas capacidades desean tener los clientes, y la generación de videos definitivamente surge en conversaciones con los clientes", dijo Philomin. "Te pediría que estuvieras atento".

En una última noticia relacionada con Titan, AWS lanzó la segunda generación de su modelo Titan Embeddings, Titan Text Embeddings V2. Este modelo convierte el texto en representaciones numéricas, llamadas embeddings, para alimentar aplicaciones de búsqueda y personalización. El modelo de Embeddings de primera generación también hacía eso, pero AWS afirma que Titan Text Embeddings V2 es en general más eficiente, rentable y preciso.

"Lo que hace el modelo Embeddings V2 es reducir el almacenamiento total [necesario para utilizar el modelo] hasta en cuatro veces, manteniendo el 97% de la precisión", afirmó Philomin, "superando a otros modelos comparables".

Veremos si las pruebas en el mundo real demuestran eso.