La IA generativa está muy, muy sobrevalorada en este momento y eso significa que muchas de las nuevas empresas de IA que reciben fondos de capital de riesgo hoy van a fracasar. Esto va a ser similar a lo que sucedió en crypto. Habrá aplicaciones selectivas de nuevas empresas que funcionen bien y puedan construir negocios, pero tal vez el 70-80% de ellas morirán al final.

Incluso OpenAI ha estado experimentando una disminución en el uso últimamente, lo que puede indicar que los chatbots generativos de IA no dominarán el mundo.

He estado trabajando en sistemas de inteligencia artificial durante casi una década y puedo decirles que ya hemos visto todo esto antes. Esto es lo que le sucedió a la industria de los automóviles autónomos.

Tan bueno como ChatGPT es para chatear, o Dall-E para crear arte, lo que hacen estos programas es imitar la información que han ingerido del pasado.

La IA actual realmente no puede hacer lo que tantas empresas emergentes dicen que sus aplicaciones pueden hacer porque la IA no puede predecir las cosas de manera confiable.

Drive.ai coche autónomo Drive.ai

Cómo llegamos aquí : tres olas de aprendizaje automático

Ha habido, hasta ahora, tres olas de aprendizaje automático en el desarrollo de IA y cada una de ellas creó muchas nuevas empresas. Las tres olas son : aprendizaje supervisado, aprendizaje no supervisado y aprendizaje reforzado.

Supervisado es cuando le está enseñando al modelo de IA cómo hacer algo como identificar un bolígrafo. Contratas a un grupo de personas para etiquetar manualmente fotos de bolígrafos (y las nuevas empresas nacieron para hacer esto) y estás entrenando al modelo para responder a la pregunta, ¿es esto un bolígrafo o no?

Sin supervisión es cuando escribes una regla en un algoritmo y le dices a la IA que detecte cuál es el objeto. Un ejemplo es la detección de píxeles para identificar colores: rojo, verde, amarillo, etc.

El aprendizaje reforzado es cuando lo entrenas para identificar, por ejemplo, una manzana, y luego lo refuerzas si lo hizo bien o no. ¿Esto es una manzana? Sí. Bien, excelente. ¿Esto es una manzana? No, te equivocaste.

Luego, la ingeniería de inteligencia artificial se metió en esta curva de aprendizaje empinada basada en todo eso. Fue combinado reforzado y sin supervisión.

Lo que estoy tratando de hacer que la gente fuera de la comunidad de IA entienda es que esto es esencialmente solo un juego de probabilidad. ¿Cuál es la mayor probabilidad de que ocurra algo en el futuro? Por ejemplo, un automóvil autónomo utiliza un montón de modelos de aprendizaje profundo. Cuando el modelo nota « oh, aquí hay un humano a la derecha de nosotros. Un segundo antes de llegar a una posición cercana, necesito predecir si esta persona cruzará la calle o si se quedará quieta.  »

Y entonces calcula todo eso en función de las posturas: como si estuvieran en su teléfono parados, lo más probable es que esa persona no se mueva. La probabilidad de que esta persona cruce la calle es quizás del 0,001 %.

Pero los accidentes terminan ocurriendo.

Así que eso es el aprendizaje profundo : es como algo centrado en la predicción probabilística. Y este es el día en que vivimos hoy. La gente dice : « Oye, estamos creando algo nuevo ». Pero todo lo que es, incluso para algo como OpenAI, es que le están dando muchos datos y luego básicamente están diciendo, replicarlo y crear algo basado en la información anterior.

Lo que puede y no puede confiar en la IA para hacer

Sí, si usas ese tipo de IA correctamente, es súper poderosa. Pero la IA depende totalmente de la información que se le proporciona. La información podría estar sesgada, o escupir algo que no es creativo sino básicamente plagiado, o que se basa en información antigua y desactualizada.

Entonces, ¿cómo puede saber si la tecnología de una startup de IA funcionará o si es probable que falle y la empresa fracase? Si lo que está haciendo es reutilizar información estática y no depende de tener que predecir un resultado, está en un terreno más seguro. Como enrutar un mapa en un entorno controlado para robots de almacén. A diferencia de los automóviles autónomos, los robots de almacén funcionan en un entorno controlado, ¿verdad?

O clasificación del centro de llamadas: cualquier cosa que ingrese al centro de llamadas por un motivo identificado, el aprendizaje automático puede analizarlo y enrutarlo a la persona correcta.

Pero las nuevas empresas que requieren una fuerte predicción tendrán dificultades para lograr sus afirmaciones, al igual que la mayoría de las nuevas empresas de automóviles autónomos de la última década no se han convertido en grandes empresas (y no todos estamos siendo conducidos en ellas).

En este segmento hay nuevas empresas con tecnología que se basa en que las personas cambien su comportamiento para confiar en una máquina en lugar de en otro ser humano como, por ejemplo, aplicaciones humanas virtuales: asistentes de IA que se supone que reemplazan a un humano para administrar la oficina de un ejecutivo o bots de IA que se supone que reemplazan a los vendedores. Otra categoría es cualquier cosa que requiera estrategia, como en el mundo legal, desarrollar una defensa. Y otra categoría es cualquier cosa que requiera que la IA comprenda y prediga lo que siente la gente, como un servicio de conserjería.

Entonces, ¿cómo podemos cerrar la brecha entre la IA limitada de hoy y el día en que podamos confiar totalmente en ella? Bueno, hay una solución intermedia. Podemos usar la IA hoy para hacer un trabajo consistente y repetitivo, llamémoslo « trabajo previo », e incluir seres humanos en el proceso.

Pero hay una trampa incluso para esto porque también debe tener en cuenta el costo real de la adopción de IA. Tomemos, por ejemplo, Amazon Go. A partir de junio, Amazon cerró su novena tienda Go, incluidas las tiendas insignia en San Francisco, Seattle, Nueva York. ¿Contra quién se enfrentaron? Intentaban proporcionar una mejor experiencia de usuario reemplazando a un trabajador de $ 20 por hora (aproximadamente lo que ganan los cajeros de Whole Foods) con tecnología inteligente.

Pero eso implicó pagar costosos talentos de ingeniería, construir tecnología patentada y luego pagar los costos continuos de soporte para redes informáticas complejas impulsadas por la visión, sin mencionar el costo de mantener y volver a capacitar sus modelos, que es muy costoso. El autopago terminó siendo una forma mucho más rentable para otros minoristas como Costco, Walmart, supermercados y aún resolvió el mismo problema de mejorar la eficiencia del pago. No se requiere IA.

Entonces, si está eliminando tareas administrativas repetitivas y predecibles, es un buen uso para la IA generativa. ¿Pero si está tratando de crear algo que requiera predecir algo que sucederá en el futuro? ¿Cómo funciona esa tecnología? Eso es lo nuevo y brillante. Y hoy no trabajaría ni invertiría en esa empresa.