Esta semana, varios medios reportaron que Sports Illustrated había creado contenido utilizando inteligencia artificial. No solo fueron artículos, sino también los autores, sus imágenes y biografías, los cuales resultaron ser falsos, creados con avanzados motores de generación de imágenes. Estos autores generaron textos que buscaban recomendar productos, dando la impresión de ser usuarios reales compartiendo experiencias de su vida diaria. Tras ser detectados, los contenidos fueron rápidamente eliminados por la empresa, que aclaró que se trataba de contenido afiliado de un tercero. La reacción de los editores del medio fue inmediata, con una publicación en Twitter del sindicato SI Union expresando su condena por las decisiones tomadas.
El incidente es uno de los más públicos desde la llegada de los Large Language Models (LLM), pero estoy seguro de que no será el último. El uso de inteligencia artificial en la generación de contenido, creatividad y consultoría se ha vuelto la norma. Esto pone en evidencia los límites éticos de la tecnología y su relación con el empleo humano, la propiedad intelectual y, sobre todo, la transparencia. En un mundo donde la generación de contenido está cada vez peor remunerada, resulta complicado exigir a los medios que inviertan en mano de obra humana, calificada y costosa. Un reciente reportaje del Wall Street Journal ilustró cómo la mayoría de las mesas editoriales de periódicos locales en Estados Unidos se han quedado sin reporteros o redactores. La presión sobre el trabajo periodístico comenzó hace años; los periódicos, en especial, tuvieron que buscar mayor eficiencia en sus equipos, hasta el punto de que el trabajo de diseño, redes sociales, fotografía y redacción recae, en muchos casos, en una sola persona. He visto cómo editores han tenido que producir cada vez más contenido en menos tiempo. Se podría pensar que los influencers lo tienen más fácil, pero después de conversar con líderes de este segmento en México, es evidente que también se han convertido en esclavos de crear contenido rápidamente para satisfacer el algoritmo de las redes sociales. En su caso, el único beneficio es la audiencia que puedan tener en plataformas como Instagram o TikTok; lamentablemente, poco se llevan a casa, y en la mayoría de los casos no obtienen un sitio, medio o empresa como resultado de su trabajo. Esto implica que viven en una suerte de incertidumbre laboral; si uno de estos grandes generadores de contenido o influencers tiene un problema de salud, sus ingresos se verán rápidamente afectados. Son también resultado de satisfacer a un autómata digital en forma de un algoritmo que, actualmente, es en cierta medida resultado de la inteligencia artificial.
Es difícil pensar que la Inteligencia Artificial en Marketing y en general cualquier actividad humana puedan sobrevivir sin implementar la inteligencia artificial. Una empresa que decida no hacerlo quedará rezagada respecto a sus competidores. Esto es evidente en las universidades que entrenan a sus alumnos en el uso de esta nueva tecnología. Hoy es fácil criticar a Sports Illustrated, pero en pocos años, los mismos egresados de estas carreras propondrán usar esta tecnología para crear mejores formas de llegar al consumidor. En realidad, es contradictorio pedir a Sports Illustrated que no la use y a la vez agradecer a Uber porque un conductor llegue más rápido, en ambos casos utilizando inteligencia artificial. Personalmente, he encontrado que escribir estas columnas y apoyarme en ChatGPT para revisar el texto final me ha reducido la cantidad normal de errores tipográficos. No estoy solo; la mayoría de los profesionales que buscan mejorar su calidad y productividad usan alguna de las tantas opciones disponibles de LLMs.
La diferencia, al menos a ojos del consumidor, es la transparencia. Tal vez si Sports Illustrated hubiera sido claro en que el texto fue creado con inteligencia artificial, la molestia hubiera sido menor. Quizás la molestia fue que suplantaron a un humano, creando un avatar y una historia falsa detrás de las recomendaciones. Pero, me pregunto, ¿no es lo mismo cuando interactúas con un ChatBot? También en ese caso se busca la mayor humanización posible. La doble moral con la tecnología puede ser el gran peligro para el marketing; si algo es creado con inteligencia artificial, no debería tener menos valor. De la misma manera que un plano creado con AutoCAD no vale menos que uno hecho a mano; de hecho, probablemente vale más porque seguramente es más preciso. Tampoco se debe suponer que la inteligencia artificial es fácil de usar; como toda herramienta, responde a su usuario. Esa habilidad para usar la herramienta debería ser valorada y, probablemente, mejor remunerada. El valor de la inteligencia artificial también está en lo que se le alimenta; hay una diferencia importante entre pedirle que escriba un texto a que nos ayude a redactar uno con todos los ingredientes proporcionados. Como en todo, hay grados de involucramiento en la tecnología.
Propondría que el mayor riesgo de usar inteligencia artificial es promover solo la eficiencia y productividad. Ese es el mayor riesgo, y es allí donde los jóvenes tendrán una ventaja sobre los usuarios que recién se enfrentan a la IA. Es el uso innovador de la herramienta lo que hará la diferencia; aún no hemos descubierto cuál es el límite de estas tecnologías y, hasta ahora, solo algunos las han explorado más allá de hacer su vida más fácil. Es momento de usarlas para crear cosas totalmente nuevas.