Cuando Sam Altman puso fin a su primera puesta en marcha a principios de 2012, había pocos indicios de que su camino por delante sería paralelo al del entonces niño prodigio de Silicon Valley, Mark Zuckerberg.
Mientras Altman sopesaba sus próximos movimientos después de cerrar Loopt, su startup para compartir ubicaciones, el CEO de Facebook estaba al frente de la toma de control global de las redes sociales y guiaba a su compañía a una oferta pública inicial de gran éxito que valoró la creación de Zuckerberg en $ 104 mil millones. Pero poco más de una década después, las cosas han cambiado drásticamente. Hoy en día, la promesa de las redes sociales como una fuerza unificadora para el bien casi se ha derrumbado, y Zuckerberg está recortando miles de puestos de trabajo después del giro rocoso de su empresa hacia el metaverso. Y es Altman, un desertor de Stanford de 37 años, que ahora ve a su estrella ascender a alturas vertiginosas, y que enfrenta las trampas de un gran poder.
Altman y su empresa Open AI han puesto sobre aviso a Silicon Valley desde que lanzaron ChatGPT al público en noviembre. El modelo de inteligencia artificial, que puede escribir prosa, código y mucho más, es quizás la tecnología más poderosa e impredecible de su generación. También ha sido una mina de oro para Altman, que condujo a un acuerdo multianual y multimillonario de Microsoft y la incorporación de 100 millones de usuarios en sus primeros dos meses. El ritmo de crecimiento supera con creces la marcha de TikTok e Instagram hacia ese hito, lo que la convierte en la aplicación de Internet para consumidores de más rápido crecimiento en la historia.
Al igual que las redes sociales en 2012, la industria de la IA se encuentra al borde de un cambio inmenso. Y mientras las redes sociales continuaron remodelando nuestro mundo durante los próximos 10 años, los expertos me dijeron que las consecuencias de los próximos pasos de la IA serían de un orden de magnitud mayor. Según los investigadores, los modelos actuales de IA apenas están arañando la superficie del potencial de la tecnología. Y a medida que Altman y su cohorte avanzan, la IA podría remodelar fundamentalmente nuestra economía y nuestras vidas incluso más que las redes sociales.
« La IA tiene el potencial de ser una tecnología transformadora de la misma manera que lo fue Internet, la televisión, la radio, la prensa de Gutenberg », dijo el profesor Michael Wooldridge, director de investigación fundamental de IA en el Instituto Turing. « Pero creo que la forma en que se usará es algo que apenas podemos imaginar ».
Como ha demostrado el historial de Zuckerberg en Facebook, la tecnología que se libera puede tener profundas consecuencias, y si la IA no se controla o si se prioriza el crecimiento sobre la seguridad, las repercusiones podrían ser irreparables.
Tecnología revolucionaria, hecha peligrosamente
Dan J. Wang, ahora profesor asociado de negocios y sociología en la Escuela de Negocios de Columbia, solía pasar frente a la oficina de Loopt de Altman en Palo Alto, California, cuando era estudiante de Stanford. Me dijo que vio muchos paralelismos entre Altman y Zuckerberg : los dos son « evangelistas de la tecnología » y « líderes realmente convincentes » que pueden ganarse la fe de quienes los rodean. Ninguno de los dos fue la primera persona en ponerse en huelga en sus respectivos campos. En el caso de Facebook, rivales como Myspace y Friendster tuvieron una ventaja inicial, mientras que la IA ha estado en desarrollo durante décadas. Pero lo que les falta en originalidad, lo compensan en tolerancia al riesgo. Tanto Zuckerberg como Altman están dispuestos a expandir el uso público de la nueva tecnología a un ritmo mucho más rápido que sus predecesores más cautelosos, dijo Wang. « La otra cosa que es realmente interesante acerca de estos dos líderes es que son realmente buenos para hacer que las tecnologías sean accesibles », me dijo.
Pero la línea entre el lanzamiento de tecnología de punta para mejorar la vida de las personas y dejar que un producto no probado salga a la luz en un público desprevenido puede ser delgada. Y el historial de Zuckerberg proporciona muchos ejemplos de cómo puede salir mal. En los años transcurridos desde la salida a bolsa de Facebook en 2012, la empresa ha lanzado docenas de productos al público, al mismo tiempo que ha influido profundamente en el mundo fuera de línea. El escándalo de Cambridge Analytica expuso los problemas de privacidad que conlleva la recopilación de datos personales de miles de millones de personas; el uso de Facebook para facilitar la violencia como el genocidio en Myanmar y la insurrección del Capitolio mostró cuán tóxica puede ser la desinformación en las plataformas sociales; y los daños de servicios como Instagram en la salud mental han planteado preguntas incómodas sobre el papel de las redes sociales en nuestra vida cotidiana.
La reputación dañada de Facebook es el resultado de que la empresa se adelantó a los consumidores, los reguladores y los inversores que no lograron comprender las consecuencias de que miles de millones de personas interactúen en línea a una escala y velocidad sin precedentes. Facebook y Zuckerberg se han disculpado por sus errores, pero no por el enfoque de armas de fuego de su líder evangelista que ha llegado a encarnar el mantra de la tecnología « muévete rápido y rompe cosas ». Si las redes sociales ayudaron a exponer los peores impulsos de la humanidad a gran escala, la IA generativa podría ser un turbocompresor que acelere la propagación de nuestras fallas.
« El hecho de que la tecnología de IA generativa se haya lanzado sin mucha diligencia debida o sin muchos mecanismos de consentimiento, este tipo de cosas está realmente alineada con la mentalidad de ‘moverse rápido y romper cosas' », Margaret Mitchell, una El científico investigador de IA que cofundó la división de ética de IA en Google.
Para Heidy Khlaaf, directora de la firma de ciberseguridad y seguridad Trail of Bits y ex ingeniera de seguridad de sistemas en OpenAI, el actual ciclo de exageración en torno a la IA generativa que prioriza el valor comercial sobre el impacto social está, en parte, siendo impulsado por empresas que fabrican afirmaciones exageradas sobre la tecnología para su propio beneficio.
« Todos están tratando de implementar esto sin comprender los riesgos que muchos investigadores realmente sorprendentes han estado investigando durante al menos los últimos cinco años », dijo.
« Su nueva tecnología no debería salir al mundo si puede causar estos daños aguas abajo ».
Esto debería ofrecer una clara advertencia a Altman, OpenAI y al resto de la industria de la inteligencia artificial, me dijo Mitchell. « Una vez que se implementa en los sistemas en los que las personas confían para los hechos o las decisiones críticas para la vida, no es solo una novedad », dijo.
El movimiento ha provocado una especie de carrera armamentista de IA. Google, que durante mucho tiempo fue la fuerza dominante de Silicon Valley en IA, ha acelerado el ritmo con sus propios esfuerzos de comercialización. El gigante tecnológico lanzó un competidor de ChatGPT llamado Bard solo 68 días después del anuncio de Bing. Pero el lanzamiento de Bard también sirvió como advertencia por escalar demasiado rápido : el anuncio de lanzamiento estuvo plagado de errores y, como resultado, las acciones de Google cayeron. Y no es que Bard sea la única herramienta de IA con problemas. En su corta vida, ChatGPT ha demostrado que es propenso a las « alucinaciones », respuestas seguras que parecen verdaderas pero son falsas. Los sesgos y las imprecisiones también han sido ocurrencias comunes.
Este enfoque de dejar de lado la precaución no sorprende a los expertos: Mitchell me dijo que, si bien muchas empresas habrían estado demasiado asustadas para ser las primeras en moverse, dada la atención que les habría atraído, los proyectos altamente públicos de OpenAI lo han hecho mucho más fácil. para que todos los demás la sigan. « Es como cuando estás en la autopista y todo el mundo está acelerando, y dices, ‘Bueno, mira a esos otros tipos. Están acelerando. Yo también puedo hacer eso' », dijo.
Los expertos dicen que Bing, Bard y otros modelos de IA generalmente deberían resolver los problemas tecnológicos a medida que evolucionan. El verdadero peligro, me dijeron, es la supervisión humana de todo. « Hay un desafío tecnológico en el que estoy más seguro de que la IA mejorará con el tiempo, pero luego está el desafío de la gobernanza de cómo los humanos gobernarán la IA; ahí, soy un poco más escéptico de que estamos en un buen camino « , dijo Johann Laux, becario postdoctoral en el Instituto de Internet de Oxford.
Wooldridge, del Instituto Turing, reconoce que problemas perniciosos como las noticias falsas podrían ver una verdadera « industrialización » a manos de la IA, una gran preocupación dado que los modelos ya están « produciendo falsedades muy plausibles de manera rutinaria ». « Lo que esta tecnología va a hacer es simplemente llenar nuestro mundo con falsedades imperceptibles », dijo. « Eso hace que sea muy difícil distinguir la verdad de la ficción ».
También podrían surgir otros problemas. Yacine Jernite, científica investigadora de la empresa de IA Hugging Face, ve muchas razones para preocuparse por el uso de chatbots de IA para estafas financieras. « Lo que necesitas para estafar a alguien con su dinero es construir una relación con ellos. Necesitas algo que les hable y se sienta comprometido », dijo. « Ese no es solo el mal uso de los chatbots, es el uso principal de los chatbots y en lo que están tratando de mejorar ».
Mientras tanto, Khlaaf ve un riesgo mucho más generalizado : un desmantelamiento total de la integridad científica, una exageración extrema de los « estereotipos que dañan a las comunidades marginadas » y los peligros físicos incalculables del despliegue de la IA en dominios críticos para la seguridad, como la medicina y el transporte.
El mayor error de Zuckerberg fue permitir que la ética jugara un papel secundario frente a la rentabilidad. La creación de una junta de supervisión por parte de Facebook es una señal de que la compañía está lista para asumir alguna responsabilidad, aunque muchos argumentarían que es demasiado poco y demasiado tarde para matar a los demonios desatados por la plataforma. Y ahora Altman enfrenta el mismo dilema.
Altman ha mostrado algunas señales de que está al tanto de los posibles daños de AI. « Si crees que entiendes el impacto de la IA, no lo entiendes y aún tienes que recibir más instrucciones. Si sabes que no entiendes, entonces realmente lo entiendes. (-alan watts, más o menos) », tuiteó. el 3 de febrero. Dicho esto, los investigadores tienen poca información sobre los datos que se han introducido en la máquina de OpenAI, a pesar de varias llamadas hechas para que OpenAI, de hecho, sea abierto. Levantar la tapa de su caja negra contribuiría en gran medida a demostrar que se toma en serio sus problemas.
Wang de Columbia cree que Altman está lidiando con las consecuencias de la IA, ya sea que tenga que ver con la equidad, la precisión o la transparencia de la misma. Pero cumplir con un sistema de ética que se asegura de no hacer daño, mientras se intenta escalar el próximo gran avance tecnológico, « es casi imposible », según Wang.
« Si miras sus tuits recientemente, es sensible a todos estos temas, pero el problema de ser sensible a todos estos temas es que invariablemente habrá contradicciones con lo que puedes lograr », dijo Wang.
Es poco probable que el ritmo glacial con el que los reguladores decidieron actuar contra Facebook cambie una vez que decidan tomarse en serio la vigilancia de las amenazas que plantea la IA. Significa que Altman se dejará en gran parte sin marcar para abrir la caja de Pandora de AI. Las redes sociales amplificaron los problemas de la sociedad, como dice Wooldridge. Pero la IA podría muy bien crear otros nuevos. Altman necesitará hacer esto bien, por el bien de todos. De lo contrario, podría apagarse la luz para todos.