Por qué Mark Zuckerberg hace que Meta regale sus modelos de IA más avanzados
HogarHogar > Noticias > Por qué Mark Zuckerberg hace que Meta regale sus modelos de IA más avanzados

Por qué Mark Zuckerberg hace que Meta regale sus modelos de IA más avanzados

May 20, 2023

Archivado en:

Explicación del debate sobre la IA que divide al mundo de la tecnología.

La semana pasada, Meta hizo un movimiento revolucionario en el mundo de la IA.

En un momento en que otras empresas líderes en inteligencia artificial, como Google y OpenAI, guardan de cerca su salsa secreta, Meta decidió regalar, de forma gratuita, el código que impulsa su nuevo e innovador modelo de lenguaje grande de inteligencia artificial, Llama 2. Eso significa que otras empresas ahora pueden usarlo. El modelo Llama 2 de Meta, que según algunos tecnólogos es comparable a ChatGPT en sus capacidades, permite construir sus propios chatbots personalizados.

Llama 2 podría desafiar el dominio de ChatGPT, que batió récords por ser una de las aplicaciones de más rápido crecimiento de todos los tiempos. Pero lo más importante es que su naturaleza de código abierto añade nueva urgencia a un importante debate ético sobre quién debería controlar la IA y si se puede hacer que sea segura.

A medida que la IA se vuelve más avanzada y potencialmente más peligrosa, ¿es mejor para la sociedad que el código sea secreto (limitado al personal de un pequeño número de empresas) o debería compartirse con el público para que un grupo más amplio de personas pueda acceder a él? ¿Una mano en la configuración de la tecnología transformadora?

En el anuncio de Llama 2 de Meta, Mark Zuckerberg publicó un Instagram de él mismo sonriendo con el CEO de Microsoft, Satya Nadella, anunciando la asociación de las dos compañías en el lanzamiento. Zuckerberg también explicó por qué es mejor que los principales modelos de IA sean de “código abierto”, lo que significa hacer que el código subyacente de la tecnología esté disponible en gran medida para que cualquiera pueda usarlo.

"El código abierto impulsa la innovación porque permite a muchos más desarrolladores construir con nueva tecnología", escribió Zuckerberg en una publicación separada de Facebook. "También mejora la seguridad porque cuando el software está abierto, más personas pueden examinarlo para identificar y solucionar posibles problemas".

La medida está siendo bien recibida por muchos desarrolladores, investigadores y académicos de IA que dicen que les dará un acceso sin precedentes para construir nuevas herramientas o sistemas de estudio que de otro modo serían prohibitivamente costosos de crear. Crear y mantener modelos de lenguaje de gran tamaño y de vanguardia, como los que impulsan ChatGPT, puede costar decenas de millones de dólares.

"Me estoy preparando para el tipo de progreso que puede ocurrir", dijo Nazneen Rajani, líder de investigación en la plataforma de inteligencia artificial de código abierto Hugging Face, que colaboró ​​con Meta en el lanzamiento. Rajani escribió una publicación en Twitter evaluando las capacidades de Llama 2 cuando salió por primera vez y le dijo a Vox: "Podremos descubrir más ingredientes secretos sobre lo que realmente se necesita para construir un modelo como GPT-4".

Pero la IA de código abierto conlleva grandes riesgos. Algunos de los actores más importantes en este campo, incluidos OpenAI y Google, respaldados por Microsoft, han estado limitando la cantidad de sus sistemas de inteligencia artificial que son públicos debido a lo que citan como los graves peligros de estas tecnologías.

Algunos tecnólogos están cada vez más preocupados por hipotéticos escenarios apocalípticos en los que una IA podría ser más astuta que los seres humanos para infligir daños como liberar una súper arma biológica o causar otros estragos en formas que no podemos imaginar del todo. El cofundador de OpenAI, Ilya Sutskever, dijo a The Verge en febrero que su empresa estaba "totalmente equivocada" cuando compartió detalles sobre sus modelos de manera más abierta en el pasado porque si algún día la IA se vuelve tan inteligente como los humanos, alcanzará lo que algunos llaman AGI o inteligencia artificial general, no sería prudente compartirla con las masas.

“Si crees, como nosotros, que en algún momento la IA (AGI) va a ser extremadamente, increíblemente potente, entonces simplemente no tiene sentido abrir el código fuente. Es una mala idea”, dijo Sutskever en ese momento.

Si bien podemos estar lejos de las IA que son capaces de causar una destrucción humana real, ya hemos visto que las herramientas de IA de la comunidad de código abierto se utilizan indebidamente de otras maneras. Por ejemplo, poco después de que Meta lanzara su primer modelo Llama estrictamente para uso de investigación en febrero, se filtró en el foro de mensajes en línea 4Chan, donde luego se usó para crear chatbots que arrojaban contenido de odio como insultos raciales y, en algunos casos, , escenas de violencia gráfica.

"Nos tomamos en serio estas preocupaciones y hemos implementado una serie de cosas para respaldar un enfoque responsable en la construcción con Llama 2", escribió Ahmad Al-Dahle, vicepresidente de IA generativa en Meta, en un correo electrónico a Vox. Esas medidas incluyen el “equipo rojo”, o poner a prueba el modelo antes de su lanzamiento, alimentándolo con mensajes que se espera generen un “resultado riesgoso”, como los relacionados con conducta criminal y contenido de odio, dijo Al-Dahle. Meta también ajustó su modelo para mitigar este tipo de comportamiento y publicó nuevas pautas que prohíben ciertos usos ilegales y dañinos.

Meta dice que continuará perfeccionando su modelo para mayor seguridad después de su lanzamiento.

"Cuando la tecnología se lanza y se perfecciona abiertamente, creemos que, en última instancia, conduce a debates más transparentes, una mayor capacidad de respuesta para abordar las amenazas y una mayor iteración en la construcción de herramientas y tecnologías de IA más responsables", dijo Al-Dahle.

Algunos expertos señalan, por ejemplo, que teníamos el problema de la desinformación incluso antes de que existiera la IA en su forma actual. Lo que más importa en este momento, dicen, es cómo se distribuye esa información errónea. El profesor de informática de Princeton, Arvind Narayanan, dijo a Vox que "el cuello de botella para los malos actores no es generar información errónea, sino distribuirla y persuadir a la gente". Y añadió: "La IA, ya sea de código abierto o no, no ha facilitado esos pasos".

Para tratar de contener la difusión de información errónea, las empresas que crean modelos de IA pueden imponer algunas restricciones sobre cómo se pueden utilizar sus programas. Meta, por ejemplo, tiene algunas reglas que prohíben a los usuarios usar Llama 2 para promover la violencia o el acoso, pero esas reglas probablemente resulten difíciles de hacer cumplir.

También vale la pena señalar que Llama 2 tampoco está completamente abierto. Meta no publicó los datos de entrenamiento utilizados para enseñar el último modelo, que es un componente clave de cualquier sistema de IA; Los investigadores dicen que es crucial para medir el sesgo en los sistemas de IA. Por último, Meta exige que las empresas con más de 700 millones de usuarios mensuales (es decir, básicamente, sólo un puñado de gigantes tecnológicos como Google) pidan permiso a Meta antes de utilizar el software.

Aun así, en general, Llama 2 es el proyecto de IA de código abierto más abierto que hemos visto recientemente por parte de una importante empresa de tecnología. Lo que plantea la pregunta de cómo responderán otras empresas.

Entonces, ¿cuáles son exactamente los argumentos a favor y en contra de un mundo de IA de código más abierto? ¿Y hacia qué dirección parece que nos estamos moviendo, especialmente teniendo en cuenta el reciente anuncio de Meta?

Si es un usuario ocasional de herramientas de IA como ChatGPT, es posible que no vea los beneficios inmediatos de los modelos de IA de código abierto. Pero si eres un desarrollador o investigador de IA, la introducción de LLM de código abierto como Llama 2 abre un mundo de posibilidades.

"Es un gran negocio", dijo Anton Troynikov, cofundador y jefe de tecnología de la startup de IA Chroma, que crea bases de datos que los desarrolladores conectan a los sistemas de IA para personalizarlos con sus datos, hechos y herramientas.

Para alguien como Troynikov, utilizar Llama 2 podría permitir a la empresa dar a sus usuarios más control sobre cómo se utilizan sus datos.

"Ahora no tienes que enviar ningún dato fuera de tu sistema, puedes ejecutarlo 100 por ciento internamente en tus propias máquinas", dijo Troynikov, quien puso el ejemplo de los médicos que no necesitan exponer los registros médicos de los pacientes. a un tercero. "Sus datos ya no tienen que ir a ninguna parte para obtener estas fantásticas capacidades".

Troynikov dijo que él personalmente acaba de comenzar a usar Llama 2 y todavía está probando qué tan bien funciona con la tecnología de su empresa.

Es demasiado pronto para ver exactamente de qué otro modo se utilizará Llama 2, pero Al-Dahle de Meta dijo que ve una "gama de posibilidades en la creación de agentes y asistentes basados ​​en chat que ayuden a mejorar la productividad, el servicio al cliente y la eficiencia de las empresas que Es posible que de otra manera no hubiera podido acceder e implementar esta tecnología”.

Aquí también existe un interés propio por mejorar los propios productos de Meta. Si Meta pone a disposición sus modelos de IA, la comunidad de código abierto de ingenieros externos mejorará sus modelos, que luego Meta podrá utilizar para construir las herramientas de IA dentro de la aplicación en las que la compañía ha dicho que está trabajando, como los chatbots de asistente empresarial.

De esta manera, Meta no tiene que dedicar todos sus recursos a alcanzar a OpenAI y Google, que están más avanzados en incluir herramientas de IA generativa en su principal línea de productos.

Algunos expertos destacados piensan que si los modelos de IA son de código abierto, podrían volverse más inteligentes y, en general, menos defectuosos desde el punto de vista ético.

Al abrir los modelos de IA, más personas pueden aprovecharlos y mejorarlos. La empresa de inteligencia artificial de código abierto Stability AI ya ha creado un modelo llamado “FreeWilly” que se basa en Llama 2. Rápidamente se hizo popular y ahora puede superar a su génesis, Llama 2, en algunas pruebas. Eso lo ha llevado a ascender a la cima de la clasificación de modelos de inteligencia artificial de código abierto de Hugging Face.

“La gente fuera de Meta está superando a Meta por su propio desempeño y sus propios modelos que recopilaron y seleccionaron cuidadosamente a lo largo de los años. Pudieron hacerlo en una semana”, dijo Rajani. “Es muy difícil vencer la inteligencia de las masas”

Mientras tanto, la comunidad de IA tiene una sólida historia de conocimiento de código abierto. Google construyó y compartió públicamente el modelo transformador, que es una red neuronal que comprende el contexto, como el lenguaje, mediante el seguimiento de las relaciones entre partes de los datos, como las palabras de una oración. El modelo se ha convertido en fundamental en los modelos de IA de vanguardia y se utiliza en muchas aplicaciones, incluido ChatGPT (la "T" en GPT significa transformador).

Los modelos de código abierto permiten a los investigadores estudiar mejor las capacidades y los riesgos de la IA y detener la concentración de poder en manos de unas pocas empresas, dijo el profesor de Princeton Arvind Narayanan, señalando el riesgo de que se forme una “monocultura” tecnológica.

"El monocultivo puede tener consecuencias catastróficas", afirmó. "Cuando el mismo modelo, digamos GPT-4, se utiliza en miles o millones de aplicaciones, cualquier vulnerabilidad de seguridad en ese modelo, como un jailbreak, puede afectar a todas esas aplicaciones".

Históricamente, señalan los expertos, la IA ha florecido como campo porque los investigadores, académicos y otros expertos de las empresas han estado dispuestos a compartir notas.

"Una de las razones por las que la ciencia de datos y la IA son una industria masiva es en realidad porque se basan en una cultura de intercambio de conocimientos", dijo Rumman Chowdhury, cofundador de Humane Intelligence, una organización sin fines de lucro que desarrolla sistemas de IA responsables. "Creo que es muy difícil para las personas que no están en la comunidad de la ciencia de datos darse cuenta de cuánto nos damos unos a otros".

Además, algunos académicos de IA dicen que los modelos de código abierto permiten a los investigadores encontrar mejor no sólo fallas de seguridad, sino fallas más cualitativas en modelos de lenguaje grandes, que se ha demostrado que perpetúan sesgos, alucinaciones u otros contenidos problemáticos.

Si bien las empresas pueden probar algunos de estos sesgos de antemano, es difícil anticipar todos los resultados negativos hasta que estos modelos estén disponibles, argumentan algunos investigadores.

“Creo que es necesario investigar mucho más sobre hasta qué punto se pueden explotar las vulnerabilidades. Es necesario realizar auditorías y análisis de riesgos y tener un documento de riesgos... todo esto sólo se puede hacer si se tiene un modelo que sea abierto y pueda estudiarse”, dijo Rajani.

Incluso los partidarios más fervientes de los modelos abiertos de IA reconocen que existen riesgos importantes. Y exactamente cómo la IA podría salir mal abarca todo el espectro, desde falsificar más fácilmente las identidades de las personas hasta acabar con la humanidad, al menos en teoría. El argumento más apremiante en este escenario es que si la IA alcanza algún tipo de inteligencia artificial general, algún día podría ser más astuta que los humanos en formas que no podremos controlar.

En una audiencia reciente en el Senado, el director ejecutivo de OpenAI, Sam Altman, dijo al Congreso que con “todos los peligros de la IA, cuantos menos de nosotros tengamos que vigilar con atención, sobre las capacidades absolutas y de vanguardia”, más fácil será que los reguladores puedan controlar.

Por otro lado, incluso Altman reconoció la importancia de permitir que la comunidad de código abierto crezca. Sugirió establecer algún tipo de límite para que cuando un modelo alcance ciertos “umbrales de capacidad” para realizar tareas específicas, se le obligue a obtener una licencia del gobierno.

Ésa es una cuestión en la que algunos defensores del código abierto parecen estar de acuerdo con Altman. Si llegamos al punto en que los modelos de IA estén cerca de superar a la humanidad, entonces tal vez podamos frenar el código abierto.

Pero la pregunta desafiante con la IA es ¿en qué momento decidimos que es demasiado poderosa para dejarla sin restricciones? Y si en ese momento el genio ya está fuera de la botella, ¿será imposible detener el progreso de la IA? Esas preguntas son imposibles de responder con certeza en este momento. Pero mientras tanto, la IA de código abierto ya está aquí, y si bien existen riesgos reales inmediatos, además de otros que podrían aumentar en el futuro, también existen claros beneficios para todos nosotros al tener un grupo más amplio de personas pensando en ello.

¿Apoyará el periodismo explicativo de Vox?

La mayoría de los medios de comunicación ganan dinero mediante publicidad o suscripciones. Pero cuando se trata de lo que intentamos hacer en Vox, hay un par de problemas importantes al depender de anuncios y suscripciones para mantener las luces encendidas. En primer lugar, el dinero destinado a publicidad sube y baja con la economía. A menudo sólo sabemos dentro de unos meses cuáles serán nuestros ingresos por publicidad, lo que dificulta la planificación futura. En segundo lugar, no estamos en el negocio de las suscripciones. Vox está aquí para ayudar a todos a comprender los complejos problemas que configuran el mundo, no solo a las personas que pueden permitirse pagar una suscripción. Creemos que es una parte importante de la construcción de una sociedad más igualitaria. Y no podemos hacer eso si tenemos un muro de pago. Es importante que tengamos varias formas de ganar dinero, al igual que es importante que usted tenga una cartera de jubilación diversificada para capear los altibajos del mercado de valores. Por eso, aunque la publicidad sigue siendo nuestra mayor fuente de ingresos, también buscamos subvenciones y apoyo de los lectores. (Y no importa cómo se financie nuestro trabajo, tenemos pautas estrictas sobre independencia editorial). Si también cree que todos merecen acceso a información confiable y de alta calidad, ¿le hará un regalo a Vox hoy? Cualquier cantidad ayuda.

$95/año

$120/año

$250/año

$350/año

Aceptamos tarjeta de crédito, Apple Pay y Google Pay. También puedes contribuir a través de

Cada semana, exploramos soluciones únicas a algunos de los problemas más grandes del mundo.

Revise su bandeja de entrada para recibir un correo electrónico de bienvenida.

Ups. Algo salió mal. Por favor, introduce un correo electrónico válido e inténtalo de nuevo.

Compartir¿Apoyará el periodismo explicativo de Vox?(requerido)