Si humanizamos a la IA, estaremos perdidos.

Prompt: Una inteligencia artificial se mira en el espejo, aterrorizada, se da cuenta de que su imagen es humana. Autor: Pedro Trillo. Herramienta: Dall-e.

No me gusta que se humanice o cosifique a la Inteligencia Artificial, que la comparemos continuamente con personas, que le atribuyamos características, virtudes o defectos, que son propiamente humanos, que les hagamos test más propios de personas que de máquinas. En definitiva que le demos una entidad que no tiene.

Conocemos muy poco sobre nuestra conciencia humana o de cómo funciona nuestro cerebro, cómo para juzgar cuando la IA sea capaz de reproducir conciencia, considero el debate estéril, y en mi opinión el test de Turin no debería ser la referencia de nada en este aspecto.

Partimos de una teoría de testeo de hace setenta años, cierto es que nos hemos afanado más en desarrollar un estado del arte muy avanzado, y quizá no le hemos dedicado el tiempo que necesita para evaluar o analizar los resultados de la misma, o cómo testearla en profundidad con calma, criterio y detenimiento.

El ritmo que impone el mercado, no ha dejado un hueco para el debate. Luego hemos pensado que el día que venga una IA muy inteligente, le pasamos el test de Turing y todo solucionado, el problema es mucho más complejo y multidimensional.

Estamos en 2023, y ese enfoque científico, no tiene por qué ser el correcto a día de hoy, está muy desfasado a la realidad de los acontecimientos que estamos viviendo, las variables son diferentes, el entorno ha cambiado totalmente, y estamos midiendo muy mal los impactos en estos primeros pasos de IA generativa, quizá porque partíamos de ninguna referencia anterior.

Lo que nos lleva a evaluar y testear sobre la marcha, es igual de importante que el estado del arte del proceso de testeo, sea el mismo que el de la tecnología a testear, como consecuencia se está creando un miedo o alarma social injustificada, no estamos poniendo el foco en lo que realmente es importante.

Ya se está publicando de GPT-4 que dispone de un coeficiente intelectual de 155, a priori ese es el coeficiente aproximado de Elon Musk entre otros, luego cuando interactúes con esta herramienta, erróneamente puedes pensar que tienes a tu disposición a un micro Elon Musk a menos de dos clics, y que lo puedes personalizar a cualquier tipo de tarea con la que estés trabajando.

¿De verdad vamos a enfocar así a la IA? ¿Por qué la estamos comparando continuamente con el CI humano? ¿Qué ganamos o qué perdemos? Y si la entendiésemos como lo que es, ¿Es inteligente? Sí, claro, por supuesto, pero no es tu tipo de inteligencia humana, es otro tipo de inteligencia sintética, son datos y algoritmia que nosotros los humanos hemos construido, ordena el texto de tal manera que parece que razone extraordinariamente bien, pero ese razonamiento no es el que tú tienes como humano, su funcionamiento es totalmente diferente.

La IA futura (si no lo paran antes) podrá tener CIs de 300 o de 500 o de 1.000, pero no se debe evaluar a esta tecnología con métricas de CIs humanos, será un sistema ultra avanzado de conocimiento, una ASI (Artificial Super Intelligence), será un tipo de inteligencia totalmente diferente a la tuya, que tú como humano no la entenderás y muy probablemente ella tampoco te entienda a ti, en cualquier caso siempre deberá estar a tu servicio y no al contrario.

La IA ya nos superó hace muchos años, en 1997, cuando DeepBlue ganó a Gary Kasparov y las reacciones humanas fueron las mismas, se puso el grito en el cielo, «el ajedrez iba a desaparecer», ya no tenía sentido continuar con el juego, han pasado veintiséis años, y la industria del ajedrez goza de una salud envidiable, y hay más ajedrecistas humanos que nunca en el mundo.

Se trata de un problema de control, no de una inteligencia que nos supera, de asegurar al 100%, que estos sistemas responden siempre al humano, y están bajo sus órdenes, que en ningún momento, puedan realizar una tarea autónoma por sí mismos, no se trata de que vayan a tener un CI de 1.000 o 10.000, probablemente una IA que haya sobrepasado nuestro umbral máximo de CI humano, verá como peccata minuta el problema del clima climático, o cómo incrementar el PIB en 3 puntos, nos dará soluciones que nos dejará boquiabiertos.

¿Vamos a renunciar a este poder? ¿Por qué?

Luego no debemos trazar paralelismos, en conceptos de inteligencia que son totalmente diferentes, las redes neuronales, intentan imitar el comportamiento de cómo actúa tu cerebro humano, cómo se comunican tus neuronas entre sí, pero no tiene absolutamente nada que ver su funcionamiento, con tu modo de razonamiento humano, ni con tu inteligencia.

Considero a la IA como un espejo, no es ni más lista, ni más tonta que tú, independientemente de los test de CI humanos que le estén haciendo pasar, es un reflejo de ti mismo o misma, una respuesta a tu propia inteligencia humana cuando interactúas con ella, se trata de tu habilidad para componer buenas prompts interactuando con una herramienta que siempre debe estar a tu servicio.

El concepto o la teoría del espejo que os he ido comentando en otros artículos anteriores, lo baso en la práctica de mi día a día, en testeo, en la observación, en método científico, en alguna conversación puntual con mis usuarios, que me comentan, que las respuestas que le lanza nuestra IA (GPT-3.5 de momento, GPT-4 en breve) no eran muy inteligentes, o que esperaban algo más, que les hiciera todo directamente a la vez.

De manera educada y didáctica les pido que me envíen las prompts que han lanzado, y tras analizarlas, les explico que el problema no está en la potencia o la inteligencia que tenga el algoritmo, sino en la pregunta o prompt que genera el humano en la entrada.

Si compones una prompt muy básica, la respuesta de la IA será simple, vaga, y aburrida, no te sorprenderá, si compones una prompt muy trabajada y sofisticada (que no tiene porque ser larga), la respuesta de la IA será extraordinariamente buena y sintéticamente inteligente.

Pero no se trata de enfocar el problema desde el prisma de cómo estoy interactuando con un «ente superior» que tiene el CI de Elon Musk, que me va a quitar el trabajo y me va a hacer todas mis tareas en un clic (incluido todos mis informes, llevar a los niños al colegio, y hacerme la compra), todo lo que me devuelva tiene que ser ultra inteligente, y que no necesite validación por mi parte, ni edición, ni modificación, ni trabajo alguno.

No, no funciona así, la IA te va a exigir mucho para llegar a grandes avances con la ayuda de tu interacción con ella, es un juego de retroalimentación continua humano-máquina, Jordan Peterson reputado psicólogo e intelectual canadiense, se enfrentó por primera vez a ChatGPT, y no se le ocurrió otra cosa que lanzarle esta prompt sencillita:

Escríbeme un ensayo que sea la 13ª regla de «Más allá del orden», escrito en un estilo que combine la Biblia del Rey Jaime con el Tao Te Ching.»

Jordan Peterson.

Os podéis imaginar que la respuesta fue espectacular, aun siendo un supuesto, extraordinariamente retorcido e improbable, pero si le preguntas a ChatGPT ¿De qué color son las nubes? No esperes milagros.

La inteligencia de la IA, la debemos evaluar como una herramienta auto contenida en sí misma, como tecnología que debe superarse y competir consigo misma, siempre al servicio del humano, pero no compararse con la inteligencia humana, ni competir con nosotros, no debemos entrar en ese juego, ni darle entidad propia o incluso referirnos o llamarle «ente», sin más, se trata de una caja negra con datos y algoritmia.

Cajas negras te las puedes encontrar en cualquier sitio de la sociedad, la política, la economía, o la justicia, pero con esta, deberás ir probando llaves hasta encontrar los tesoros, no es negra porque sea una caja que se haya diseñado para hacer el mal, si no más bien una caja incomprendida que tenemos que ir descubriendo en nuestra interacción con ella.

Me gustaría rescatar las leyes de Asimov, de igual modo que veo el test de Turing totalmente desfasado, encuentro mucho sentido como punto de partida entender el mensaje que nos dejó este gran autor que tanto admiro:

  • Primera Ley – Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
  • Segunda Ley – Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  • Tercera Ley – Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

A partir de esta simple base podemos debatir y desarrollar todo lo queráis, llevar el debate más allá de aquí, con riesgos exotéricos infundados por la incomprensión o los intereses particulares de algunos expertos en la temática, lo encuentro desproporcionado y fuera de lugar.

Cuando a ti te dan acceso gratuito a ChatGPT, debes saber que estás interactuando con una tecnología que ha sido testeada previamente, pasando unos estrictos protocolos de seguridad, ética, moralidad, privacidad y valores, ojalá todos los individuales, empresas, organizaciones públicas y privadas que están poniendo el grito en el cielo asustados con la IA, pasaran estos test de valores, ética, privacidad y seguridad, el mundo sería mucho mejor, os lo aseguro.

La IA por sí misma, no es ni buena, ni mala, sino el uso que nosotros como humanos le demos a esa herramienta, esto es lo que se tiene que evaluar, no deja de ser un arma de doble filo, según en las manos en las que caiga, le puedes preguntar sobre las instrucciones para crear una bomba atómica o cómo construir un cohete que te lleve a la luna para darte un paseo los fines de semana, depende de tu uso.

Pero por naturaleza yo no le veo mala intención de manera nativa a esta tecnología, ni a muchas otras, los humanos somos los que le damos ese sentido.

Insistir en el concepto de que si tú le lanzas a ChatGPT o cualquier otro Large Language Model (LLM), ¿Cómo fabricar una bomba atómica? No te va a devolver absolutamente nada, o como mucho un mensaje de alerta, de que no está diseñado el modelo para ofrecerte esa información.

Estos modelos de lenguaje salen capados por defecto al mercado, han pasado por una fase de testing, en el que hay un filtrado previo, es más, mi opinión personal es que se han pasado mucho con este capado previo antes de salir a producción, hay excepciones que me parecen muy al límite o exageradas, luego sobre el criterio que ha habido en el filtrado de seguridad, piensa que nativamente, está ya regulado por exceso, no por defecto.

Conceptos universales para hacer el mal con esta tecnología, se han excluido ya como excepciones o temas que la IA no puede dar soluciones, con filtrado previo antes de salir al mercado, ningún agente del ecosistema queremos que una IA ofrezca instrucciones para hacer actos deleznables o peligrosos, sin embargo, nos puede ayudar mucho a curar el cáncer en los próximos años, valoremos riesgos vs. ganancias.

Llevado el mismo ejemplo a Internet, creo que habría muchas posibilidades de encontrar información a esa pregunta. Luego no demonicemos algo porque legisladores, políticos y medios de comunicación no entiendan bien como trabaja, o se les escape de su control, estamos jugando con pólvora, y la desinformación puede llevar a un escenario de regulación no deseado, restando libertad a los ciudadanos para usar en su beneficio propio y en el del colectivo estas tecnologías.

Luego mi parte más práctica, ingenieril, y pragmática, me dice que el problema o el riesgo que nos pueda traer la IA generativa, se soluciona, simplemente entendiendo la estructura de los datos, realizando filtros, aplicando etiquetas, y contemplando las excepciones en el código del GPT-X, esta es la sencilla solución con la que los ingenieros resolvemos los problemas. Ir más allá de aquí es hacer politiqueo, no ingeniería o tecnología segura y el debate se puede llevar hasta el infinito, pero el debate técnico acaba aquí, es muy sencillo.

Los problemas que nos encontramos y nos encontraremos en la Inteligencia Artificial Generativa, serán los mismos o muy parecidos a los que tenemos en Internet, los datos de Internet son los que alimentan a esta tecnología; Si en Internet hay racismo, la IA reproducirá ese sesgo, si en las redes sociales hay odio en un determinado tema, la IA tendrá ese cariz, si se produce discriminación de algún tipo, la IA reproducirá esa discriminación.

La información y los datos que los humanos hemos ido creando en Internet a lo largo de los años, serán el reflejo en el espejo en el que se mire la IA, el problema no es suyo, es nuestro como sociedad, quizá incluso bajo un punto de vista de ingeniería, sea más fácil resolver estos problemas trabajando en la modificación del código de la IA, a intentar solucionar uno por uno estos problemas en Internet o redes sociales.

Si entra la política en la IA, quizá las preguntas que deberían estar encima de la mesa serían; Si la IA va a ser federada como el actual Internet, con tres bloques diferenciados, USA, Rusia, y China, ¿Qué riesgos puede haber cuando se comuniquen entre ellas? Si la IA tendrá sesgo pudiendo ser de izquierdas o de derechas, ¿Debería ser neutra, verdad? Ojalá esta tecnología se deje limpia, sin ninguna posibilidad de adoctrinamiento ideológico en ninguna de las dos direcciones.

Si la IA se puede configurar como democracia o dictadura ¿Dependerá del régimen que esté implementado en cada país? Si la IA puede ser dual, refiriéndome a que haya IAs occidentales, e IAs orientales, dos maneras de ver el mundo totalmente diferentes, los valores de ética culturales que pueda tener un cristiano, pueden ser muy diferentes a los de un musulmán ¿Cómo gestionaremos estos problemas?

¿Deberíamos plantear valores y éticas universales que cubran los derechos y libertades de cualquier ciudadano que interactúe con IA en cualquier parte del mundo? ¿Cuál sería el estándar de ética y valores que cubriría a cualquier ciudadano independientemente de su religión, raza, o procedencia?

Estas son las preguntas que deberían estar encima de la mesa, lo demás es ruido, conflictos de interés, y politiqueo.