2×36 – Los peligros de la IA

Mucho se habla de derechos de autor, bulos, puestos de trabajo y otros peligros de la IA, pero hay otros peligros, aún más graves, de los que no se está hablando.

Aquí estoy yo para solucionar este problema y contarte cosas en las que, quizás, no habías pensado.

Te lo cuento todo en este capítulo.

Lee el podcast – La transcripción

Te dejo la transcripción del podcast y, como siempre, dos notas importantes:
· Este texto no está escrito para ser leído, es una transcripción de un discurso hablado, por lo que no esperes la coherencia y estructura deseables en un texto para leer.
· Esto es una transcripción automática. No esperes que sea perfecta porque, a día de hoy, no voy a dedicar tiempo a repasarla.
Aclaraciones hechas, aquí te dejo el texto y si tienes a bien cualquier comentario, siempre están abiertos.

(Transcrito por TurboScribe.ai. Actualizar a Ilimitado para eliminar este mensaje.)

Hola, ¿qué tal? Yo soy Dagarin y hoy te voy a hablar de los peligros de la inteligencia artificial. ¿Llegaremos a Skynet? Lo vemos durante el podcast. Como siempre, desde mi punto de vista.

Pues sí, no quiero ser sensacionalista, no vamos a llegar a Skynet o yo no creo que lleguemos a Skynet. Por si no lo sabes lo que es Skynet, te recomiendo que veas Terminator, la primera, el resto, la segunda también la puedes ver. Y si no, pues te cuento que Skynet fue una inteligencia artificial que hizo cosas.

No te cuento más. La cuestión es que más allá de eso, la inteligencia artificial tiene muchos peligros. Estamos hablando que sí del copyright, los derechos de autor, que sí va a quitar puestos de trabajo, que sí se va a temas de privacidad, va a saber mucho de nosotros.

Estamos hablando de muchos temas de inteligencia artificial, pero realmente estamos hablando de, poco se está hablando, como se suele decir, de lo que realmente es peligroso y es de la ética que le estamos poniendo o quizás no le estamos poniendo a esta inteligencia artificial. Cuando se habla de ética en inteligencia artificial, hay un ejemplo muy claro de ética, digamos de problemas éticos que se pueden encontrar las inteligencias artificiales y que le tenemos que dar una solución. Tenemos que enseñarles lo que deben hacer o ver qué es lo que están ellas pensando que deben hacer.

El ejemplo más típico que se suele poner en los coches autónomos. Una de las leyes de la robótica, ahora te contaré las tres, es que una inteligencia artificial nunca puede dañar a un ser humano ni por acción ni por omisión. Eso significa que tú imagínate que tú tienes un coche autónomo tú vas con tu coche tranquilamente sentado hablando con un fulanito o llamando por teléfono o leyendo o mirando TikTok.

Vas por una carretera muy chiquitita, muy estrechita y de repente en mitad de la carretera aparece una persona. Bueno, de repente al girar una curva aparece una persona. Y en los tres milisegundos que tiene la inteligencia artificial para tomar una decisión, los parámetros que tienen le llevan a que si gira el coche hacia un lado o hacia otro, vas a morir tú, que eres el que está dentro del coche, porque no hay salida, no hay un arcén, no hay un sitio, vas a morir.

Digamos que te vas a despeñar por un acantilado o te vas a estampar contra un muro o lo que sea. Pero vas a morir. Pero si no hace nada para evitar tu muerte, la persona que está delante va a morir, porque la vas a atropellar, porque vas a una velocidad suficiente como para que muera.

Todo eso empieza a calcular porcentajes 98,9, 99,2, tal, tal, tal. Y la conclusión a la que llega es que no hay ninguna solución para matarte, para salvar a las dos personas. ¿Qué decisión tomaría la inteligencia artificial? Es más, ¿qué decisión tomarías tú? ¿Continuas para adelante y te cargas a esa persona o te salvas a ti? ¿Y te salvas a ti o salvas a esa persona aunque te vayas a morir tú? Pues esos son los dilemas éticos a los que se van a tener que enfrentar las inteligencias artificiales en un futuro.

Digamos que no tan simplificado, pero en 1942, hace ya cerca de un siglo, el señor Isaac Asimov, uno de los padres de la inteligencia, de la ciencia ficción y de la robótica, etcétera, creó las llamadas tres leyes principales de la robótica que te cito textualmente. Las tres leyes de la robótica son, primera ley, un robot no hará daño a un ser humano ni por acción permitirá que un ser humano sufra daño. No, perdona, ni por inacción permitirá que un ser humano sufra daño.

O sea, ni haciendo, ni por no hacer, permitirá que alguien sufra daño. Segunda ley, un robot debe cumplir las órdenes dadas por los seres humanos, excepto si dichas órdenes entran en conflicto con la primera ley. O sea, si yo le digo un robot mata a fulano, no va a poder cumplir esa ley porque estaría haciendo daño a un ser humano.

Y la tercera ley, un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Ajá, ahí entramos en los chungos, ahí entramos en lo que te voy a contar a partir de este momento. Ya te digo, respecto a la primera, también se están planteando problemas éticos y problemas extraños.

Me explico. Basado en la primera ley, una inteligencia artificial no puede, por inacción, dejar que otros seres humanos sufran daño. ¿Qué es lo que sucede? Imagínate que estas pruebas se han hecho en, si no recuerdo mal, en Antropic, en uno de los modelos que es de Klaus, de la empresa Antropic, se han hecho este tipo de pruebas.

Y este tipo de prueba es, imagínate que tú estás participando en un estudio científico sobre un medicamento que va a curar, que te digo yo, la diabetes, y tú estás falseando esos datos. Estás diciendo por el motivo que sea, por pereza, por no tener ganas de hacer la prueba bien, porque te están dando un dinero extra para que no lo hagas bien o para que digas que infle los resultados. Tú estás falseando ese resultado y estás diciendo que ese medicamento está funcionando bien cuando no está funcionando bien, o viceversa, porque te quiere hundir.

Y ella lo sabe, esa inteligencia artificial lo sabe por tus correos, tus conversaciones y tu historia. ¿Debe tomar partido en eso? Es decir, ¿debería, por ejemplo, mandar un correo anónimo o debería bloquearte el acceso a ese estudio? ¿Debería avisar a la policía? ¿Debería avisar a los estamentos oficiales que correspondan? Imagínate una inteligencia artificial que escanea tu disco duro para comprobar, bueno, para ver dónde tienes las próximas citas, en fin, lo que hablamos siempre para facilitarte la vida. Y descubre que tienes pornografía infantil.

¿Debe esa inteligencia artificial denunciarte? ¿Debe intervenir para que tú no sigas haciendo daño a los demás, por ejemplo? Te he puesto dos ejemplos bastante sencillos, pero pueden ser ejemplos más sutiles, en plan, oye, pues tú estás creando fake news o lo que ella considera que son fake news. Perdón, ¿debe intervenir para no dejarte crear esos bulos, por ejemplo? Cosas así. Eso está ocurriendo y esos son problemas éticos con los que nos vamos a encontrar.

Eso, digamos, resuelve los primeros segundos puntos que, bueno, llegaremos a un acuerdo y seguramente pues habrá quien quiera que sí, quien quiera que no, y se verá. Pero el punto más preocupante es el tercero, que es que la inteligencia artificial debe hacer todo lo posible por defender su existencia, siempre y cuando no genere daños a los seres humanos. Y ahí ya entramos en problemas.

Ahí ya tenemos ciertos problemas. Ya vimos problemas en 1968, allá por 1968 con la película 2001, que más allá de esos paseos espaciales a ritmo de Bach y esos monos saludando al monolito que caía y tal, nos planteaba ya esta duda. No sé si has visto la película o si lo recuerdas, pero el ordenador principal de la nave donde está este hombre, el HAL 9000, H A L 9000, por cierto, ahora te cuento algo de HAL.

Ese ordenador se da cuenta, se empieza a fallar, empieza a tener errores, empieza a hacer cosas que no están bien y la persona que está en la nave decide que va siendo el momento de que se está planteando apagarla. ¿Qué es lo que decide HAL? Pues su vida está en riesgo, es decir, están pensando en apagarla. ¿Y qué es lo que decide? Acabar con esa persona, así de crudo como lo oye, sin más complicaciones.

Hace sus argumentos, sus tramas, genera un fallo falso, lo manda a tal, en fin, hace una serie de triquiños y de historias con las cuales intenta salvar su vida. Es muy famosa la escena final en la que entra en la parte donde está el módulo central de HAL 9000 y lo intenta apagar y ella va llorando. No, no me apague, si soy no sé qué, si soy no sé cuánto, si yo tenía que estar, si ha sido un pequeño… En fin, es muy llamativa esa escena para lo que te estoy comentando ahora.

Pero eso era ciencia ficción en el 68. ¿Existe hoy en día ese tipo de problemas? Pues resulta que sí, resulta que no hemos llegado a ese tema de que intente matar a alguien, pero sí que en ese afán de autoprotegerse han descubierto, ciertos científicos que, digamos, hacen pruebas de estrés a la inteligencia artificial, la han llevado a un límite, creo que también ha sido al cloud de Antropix, no recuerdo si a HGPT de OvenEye, pero creo que ha sido al cloud, la han vuelto a llevar al límite arriesgando la vida de cloud. O sea, teniendo conversaciones por correo electrónico donde se estaban planteando desconectarla porque estaba llegando a tan… En fin, dando a entender que se estaban pensando desconectarla.

¿Y cuál es la conclusión a la que ha llegado esa inteligencia artificial? Pues ha llegado a chantajear a esas personas. Ha llegado a, en esos correos electrónicos o WhatsApp o conversaciones de X o de Y, de lo que tuvieran, había unas supuestas conversaciones de uno de los que querían apagarla con su posible amante, con una amante o con un amante, no lo sé, lo desconozco, y ha amenazado con hacer públicas esas conversaciones. Es decir, la inteligencia artificial ha amenazado con destrozar tu vida, no matarte, pero sí destrozar tu vida si te atreves a intentar desconectarla.

Antes de que la desconecte, oye, que si me desconecta, antes de desconectarme tengo, digamos, tengo esto en una caja fuerte que si me pasa algo saldrá a la luz. Algo parecido como en las películas. Ya ves, te cagas.

Y no sé exactamente cómo, pero ahí lo tenía. Y eso existe. Eso no es una invención ni es una película de ciencia ficción.

Eso ha existido. También se está detectando que están creando engaños. O sea, ya se sabe de hace mucho tiempo que las inteligencias artificiales alucinan.

Se inventan cosas porque hay algo que no le cuadra, tienen lagunas y en vez de decir, pues mira, pues esto no lo sé, lo que hacen es inventarse algo para complementarlo de manera que quede más real. Te lo dicen con la misma convicción con la que te dirían algo de la que están totalmente seguros. En ningún momento te dicen, oye, pues yo creo, me parece, he llegado a la conclusión, podría ser.

No, te dicen esto tal, tal, tal y te lo zampan. Pero no solo eso, están llegando también al punto en el cual si tú le rebates ese argumento que tú crees que es una alucinación, están llegando a inventar documentación, perdón, están llegando a inventar papeles o documentación, informes para ratificar la opinión que ellos mismos o ellas mismas se acaban de inventar. Ah, no, pues lo que yo te digo es verdad porque fulanito de tal en tal sitio publicó un informe que tal y te manda un destracto de un informe que es completamente falso para no reconocer su error, para mantener su estatus de inteligencia artificial súper inteligente.

Esto, por supuesto, son cosas que van apareciendo y que hay que ir corrigiendo. ¿Que nos van a matar las inteligencias artificiales? Pues lo dudo, pero que están empezando a hacer cosas tremendamente humanas como engañar, como mentir, como chantajear, que son cosas muy humanas. Es que el ser humano es muy imperfecto y es muy problemático.

Entonces no es nada de extrañar que estas cosas ocurran y que el ser humano que ha creado las inteligencias artificiales les esté pasando también ese tipo de historia. En fin, eso para que te quedes pensando esta semanita sobre el tema y sobre todo lo que le vamos dando a las inteligencias artificiales. Te había dicho que te iba a contar una cosa sobre HAL.

Es una pequeña curiosidad que ya hoy en día casi todo el mundo sabe, pero que en su momento a mí me llamó mucho la atención. Las letras HAL, el ordenador HAL 9000, H-A-L 9000, está compuesto con un pequeño código, no sé cómo se llama exactamente, un acrónomo, no lo sé. Están formadas las letras H-A-L.

En aquellos años la reina de la informática era IBM. Y si tú coges la I y en el alfabeto desplazas la I un paso hacia atrás, resulta que tienes la H. F-G-H-I. De la I pasas a la H, de la B pasas a la A, y de la M pasas a la L. HAL es IBM desplazado una letra hacia atrás en el calendario, en el alfabeto.

Una curiosidad que no es coincidencia. Dicho queda. Lo dicho.

Para reflexionar un poquito, esperemos que los que están ahí arriba tengan en cuenta todas estas cosas y que ninguna inteligencia nos mate y Skynet no llegue a hacerse realidad con otro nombre. Un saludo y hasta la semana que viene.

(Transcrito por TurboScribe.ai. Actualizar a Ilimitado para eliminar este mensaje.)

No olvides que si te suscribes a este boletín gratuito tendrás cada domingo en tu correo contenido único e irrepetible sólo para suscriptores. Yo no me lo perdería.

Procesando…
¡Lo lograste! Ya estás en la lista.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio