“Lo que YO INVENTÉ y no debí escribir…”
Así me respondió Claude, la plataforma de inteligencia artificial de Anthropic, cuando le cuestioné sobre un par de cifras que me arrojó después de haberle pedido que me organizara los datos que necesitaba para un artículo. Entre todo el material que me estaba preparando esta herramienta, a simple vista, algunos números no me sonaron correctos. Le solicité más información sobre ellos, pensó un poco, y me “reconoció” que eran un invento (y sí, eran incorrectos).
En mi trabajo diario, las plataformas de IA se han vuelto una ayuda indispensable. El motor de transcripciones que utilizamos funciona cada vez mejor, por ejemplo, mientras que Claude sí es una herramienta que nos acorta el tiempo de análisis de cierto tipo de datos, y ChatGPT me permite hacer traducciones inmediatas o muy fácilmente encontrar ideas de cómo puedo ejemplificar algo.
Pero es increíblemente importante no olvidar que sus capacidades son todavía limitadas. En mi caso, que por mi trabajo necesito investigar acerca de empresas mexicanas, lo que todas estas plataformas pueden hacer es relativamente poco debido a que no hay mucha información de la que puedan disponer.
Hace un par de semanas tuve una discusión con un empresario muy importante (a quien en lo personal admiro muchísimo). Estábamos hablando sobre los consejeros independientes en las empresas públicas de este país, y él me insistía que salvo muy pocas excepciones, no es muy común que sucedan ejemplos de consejeros “cruzados” (“yo estoy en tu consejo y tú estás en el mío”).
Yo le decía que sí sucede con frecuencia.
Me di cuenta que él estaba basándose completamente en un dato que había obtenido de ChatGPT —y que era incorrecto.
Lo importante en este caso no es que ChatGPT se equivoque. Lo importante es que, hasta hace poco, alguien como esta persona hubiera recurrido a otras fuentes de información para entender algo que considerase relevante. Claro, esa investigación le habría tomado más tiempo (y esfuerzo), pero terminaría con los datos correctos. Las plataformas de inteligencia artificial responden extremadamente “bonito”: con mucha seguridad y detalle van a decirte lo que consideran que necesitas. Eso es delicado.
En la mayoría de las ocasiones, seguro esto funcionará perfecto. En algunas otras, se equivocarán. Literalmente te mienten —y lo hacen con una “seguridad” increíble.
Jellycat
El caso de los Jellycat me tiene muy impresionado. Se trata de una marca de peluches creada en Reino Unido en 1999; en sus primeros 20 años mantuvo un crecimiento constante y fue ganándose un lugar en jugueterías más bien caras. Sus productos tienen muy buena calidad y se han ido especializando en hacer diseños diferentes, que “conectan” muy bien con los gustos de un perfil de cliente que puede pagar 50 dólares (o mucho más) por un peluche.
Como le sucedió a otros, explotaron en popularidad después de viralizarse en TikTok. Entre 2022 y 2024, sus ventas se dispararon: pasaron de 57 millones de dólares anuales, a más de 450 millones. Es un gran caso de desarrollo de producto dentro de una categoría que desde fuera se ve completamente saturada y hasta cierto punto, “comoditizada”.