Meta presenta un modelo de lenguaje que puede identificar objetos en una imagen

Meta ha desarrollado un modelo de lenguaje llamado Segment Anything Model (SAM) que puede identificar objetos en fotografías y vídeos. Su nombre se debe a que utiliza un proceso de segmentación que divide las imágenes digitales en múltiples partes para que sean más fáciles de analizar.

La compañía considera que SAM puede ser de utilidad para entender mejor cómo interaccionan las personas que consultan los contenidos de las páginas web, para aplicaciones de realidad aumentada, de edición de imágenes o para localizar animales y objetos en vídeos.

El código fuente de este modelo de lenguaje está disponible en GitHub y, además, ha creado una demo interactiva que cualquiera pueda probar gratuitamente para comprobar de primera mano cómo funciona esta tecnología de segmentación. En la misma, se pueden utilizar una serie de imágenes específicas que provee Meta o bien subir otras diferentes y hacer que este software identifique los elementos individuales que aparecen en ellas.

Este anuncio pone de relieve, una vez más, la importancia que Meta le otorga al desarrollo de nuevas tecnologías cimentadas en el uso de la inteligencia artificial, en un momento en el que los gigantes de la industria están volcando recursos ingentes para tratar de conseguir una ventaja competitiva en este campo.

Microsoft lidera la carrera tras su acuerdo estratégico con OpenAI que le permite utilizar antes que nadie las últimas versiones de su modelo de lenguaje GPT, el mismo que impulsa a ChatGPT. A la zaga le siguen Google, Meta, Apple o Amazon, pero dada la velocidad con la que se están presentando nuevos avances en este sector, resulta imposible de predecir quién ostentará el liderato en los próximos años.

ETIQUETAS: Tecnologia, , , , , ,