¿Por qué ChatGPT no 
				te conoce?
				 
				
				Porque no soy Elon Musk...
				
				 
				
				ChatGPT es el 
				resultado de un código que procesó y acumuló el conocimiento de 
				Internet en su red neuronal hasta esa fecha que te ha 
				mencionado. 
				 
				
				Son números, parámetros. 175.000 millones en 
				GPT-3 y en
				
				GPT-4 [el modelo disponible más avanzado] no sabemos, pero 
				más. 
				 
				
				Lo que hace es encontrar una respuesta a tu 
				pregunta palabra a palabra según lo que sea estadísticamente más 
				probable. 
				 
				
				Así escribe cada frase, cada párrafo.
				
					
						
						
						
						"Igual estás entrevistando a quien no deberías, 
						
						
						no 
						soy suficientemente famoso para ChatGPT"
						
					 
				 
				
				Por ejemplo, si sale Barack, sabe que 
				luego viene Obama porque lo ha leído millones de veces.
				
				 
				
				Pero seguramente Jordi Torres lo ha leído 
				poquísimas veces, no le da la posibilidad de hacer algo 
				razonablemente confiable. 
				 
				
				Si tras Jordi Torres la siguiente palabra 
				aparece con una probabilidad muy baja, la descarta para no 
				entrar en 'alucinaciones'.
				 
				
				Aunque a veces se despista, él siempre 
				responde. 
				 
				
				A ti, te ha dado una respuesta de escape 
				tuneada porque en el entrenamiento de ChatGPT ha habido 
				intervención humana, lo que se llama human-in-the-loop 
				[supervisores humanos]. 
				 
				
				Así que igual estás entrevistando a quien no 
				deberías, no soy suficientemente famoso para ChatGPT [ríe].
				 
				 
				 
				
				¿Falla entonces en el 
				hilado fino?
				 
				
				
				
				ChatGPT contiene una versión comprimida de 
				todo el conocimiento de Internet que se usó para entrenarlo, 
				pero al comprimirlo, se pierde información, como al comprimir un 
				fichero informático. 
				 
				
				Al descomprimirlo, debe aplicar un proceso 
				matemático para encontrar los píxeles que faltan. 
				 
				
				De media, los genera bien, pero a veces se 
				distorsiona una imagen después de comprimirse. Él domina la 
				verborrea, redacta bien, pero le falta información precisa.
				 
				
				Lo que se está haciendo es añadir al motor de 
				verborrea que es ChatGPT una base de datos específica con 
				conocimiento del ámbito al cual quieres aplicarlo. 
				
					
					Por ejemplo, al de la salud, para 
				sobre-entrenarlo y que sea más preciso. 
				
				
				El problema es que se ha 
				entrenado quién sabe con qué. 
				 
				
				De hecho, OpenAI de open no tiene 
				nada. Es de los primeros avances en redes neuronales que se hace 
				sin compartir con la comunidad científica los datos, los 
				algoritmos y las máquinas que se han usado para el 
				entrenamiento. 
				 
				
				Es todo muy opaco.
				 
				 
				
				"Los 
				conceptos de IA y redes neuronales 
				
				vienen de 
				mediados del siglo pasado. 
				
				Las buenas 
				ideas matemáticas ya estaban en los 80, 
				
				pero no 
				había máquinas para computar la información 
				
				en un tiempo 
				razonable"
				 
				
				
				¿Qué diferencia las 
				neuronas biológicas de las artificiales? 
				 
				
				No se parecen en nada, pero cómo se expresan 
				las cosas puede ayudar a definir ideas. 
				 
				
				Los conceptos de IA y redes neuronales vienen 
				de mediados del siglo pasado. Las buenas ideas matemáticas ya 
				estaban en los 80, pero no había máquinas para computar la 
				información en un tiempo razonable. 
				 
				
				En 2012, en una competición de clasificación 
				de imágenes, explotó esta idea de que las redes neuronales 
				podían ser útiles.
				
					
					Una red neuronal no es más que millones de 
				neuronas artificiales. 
					 
					
					Y una neurona artificial es una suma 
				ponderada de los parámetros de entrada, de las conexiones con 
				otras neuronas, más una aplicación que procesa el resultado.
					
				
				
				Al igual que con las neuronas humanas - que, 
				según lo que les llega y su procesamiento, emiten a través del 
				axón una señal de activado o no activado - las artificiales, 
				tras esa suma ponderada, emiten una salida de valor 0 ó 1.
				
				 
				
				Es así de simple, una operación matemática 
				muy pequeña, una multiplicación de matrices. 
				 
				
				Pero con millones de estas cosas tan simples 
				se hacen cosas muy complejas, como entrenar estas neuronas para 
				obtener información de los datos de entrada de forma automática, 
				sin precisar de un programador que indique qué hacer si pasa 
				esto o lo otro.
				 
				 
				 
				
				¿Ha ocurrido algo 
				sorprendente en el desarrollo de la IA desde que publicaste tu 
				libro en septiembre pasado?
				 
				
				Desde el punto de vista de la investigación, 
				no. 
				 
				
				Lo cerramos a finales de mayo (de 2023), cuando ya 
				había pasado lo más importante, es especial en relación con el 
				lanzamiento de ChatGPT, aunque voy actualizando anécdotas en
				mi Web. 
				
				 
				
				Sí me sorprende la rapidez con la que se está 
				adoptando la tecnología en muchos campos. Aún queda mucho 
				recorrido, pero va a cambiar las profesiones, la calidad de vida 
				de las personas, lo va a cambiar todo.
				 
				
				Se está avanzando mucho en facilitar esa 
				adopción. 
				 
				
				Microsoft está aplicando IA en sus productos. 
				
				
					
					Word ya corrige nuestros errores ortográficos, pero pronto podrá 
				resumir un texto, etc. 
				
				
				También se están perfeccionando los modelos 
				de lenguaje. 
				 
				
				En España existe el
				
				proyecto MarIA [para resumir y generar textos en castellano 
				a partir de los archivos Web de la Biblioteca Nacional de 
				España] y en Cataluña tenemos
				Aina 
				[equivalente para el catalán]. 
				 
				
				Se trata de facilitar una infraestructura que 
				puedan utilizar las empresas, por ejemplo, en el ámbito de la 
				salud. 
				 
				
				En el Hospital Clínic de Barcelona o en el 
				Vall d'Hebron, donde algunos médicos escriben en catalán, otros 
				en castellano y otros en inglés, estos modelos pueden ayudar a 
				hacer una interpretación automática de los informes.
				 
				 
				 
				
				¿Los gigantes 
				tecnológicos van marcando la pauta?
				 
				
				En modelos de lenguaje hay una competición 
				entre las grandes tecnológicas. 
				 
				
				Microsoft ha invertido mucho dinero en OpenAI, 
				Google ha sacado Gemini, Meta (Facebook) tiene 
				Llama... 
				Y todo viene de un artículo de investigación de Google que se 
				llama
				
				Transformer publicado en 2017, cuando hubo un cambio de 
				paradigma. 
				 
				
				Desde entonces, no ha habido nada de esa 
				dimensión. 
				 
				
				Sí se han puesto las pilas los gobiernos: se 
				le está dando un acelerón a la
				
				legislación europea, Biden está poniendo sus salvaguardas en 
				EE.UU...
				
					
						
						
						"OpenAI
						
						
						no 
						abrió ChatGPT a todo el mundo por altruismo, 
						
						es 
						un experimento masivo 
						
						para 
						afinar sus modelos de lenguaje. 
						
						Una 
						vez más, pagamos dándoles nuestros datos, 
						
						
						nuestra forma de interactuar"
						
					 
					
				 
				
				Es decir, no hay 
				grandes hitos científicos, pero se ha avanzado en 
				comercialización y regulación, ¿correcto?
				 
				
				Se está afinando la tecnología para hacerla 
				más útil. 
				 
				
				Y, no nos engañemos, OpenAI no abrió 
				ChatGPT 
				a todo el mundo por altruismo, al igual que Google te da 
				'gratis' Gmail. 
				 
				
				Es un experimento masivo para afinar sus 
				modelos de lenguaje. 
				 
				
				Una vez más, pagamos lo que supuestamente nos 
				está ayudando, dándoles nuestros datos, nuestra forma de 
				interactuar. Ellos están adquiriendo toda esta información, 
				están afinando el producto. 
				 
				
				También creo que muchas de estas cosas van a 
				ser cada vez más transversales y transparentes.
				 
				 
				 
				
				Concluyes que la IA 
				supondrá una mayor transformación de la historia de la humanidad 
				que la que supuso la Revolución Industrial.
				 
				
				Ahí hay un trabajo del editor para acentuar 
				aquello que yo pienso y digo. 
				 
				
				Yo, como científico, no tengo costumbre de 
				hacer titulares. Pero lo puedo defender en el sentido de que 
				ahora tenemos una herramienta más potente que cualquiera de las 
				anteriores.
				 
				
				Por ejemplo, va a automatizar muchas tareas 
				diferentes a las manuales y algunas de ellas son las creativas, 
				las que hasta ahora creíamos que solo podían hacer los artistas.
				
				 
				
				De igual forma, va a afectar a muchos de 
				quienes estudiamos en la universidad pensando que nunca nos 
				quitarían el trabajo. A mis estudiantes de informática les va a 
				afectar de lleno porque las máquinas ya saben programar. 
				
				 
				
				Yo ya pido a ChatGPT que me ayude con ciertas 
				rutinas de programación. 
				
				
				 
				
				La automatización va a ocurrir cada vez 
				más en trabajos de carácter intelectual, no como hasta ahora, 
				que solo afectaba a quienes trabajaban en cadenas de producción.
				
				 
				
				Es una transformación brutal...
				
					
						
						
						"La 
						automatización va a ocurrir cada vez más 
						
						en 
						trabajos de carácter intelectual, 
						
						no 
						como hasta ahora, que solo afectaba 
						
						a 
						quienes trabajaban en cadenas de producción. 
						
						Es 
						una transformación brutal"
						
					 
					
				 
				
				¿Compite con nuestra 
				inteligencia?
				 
				
				La complementa...
				 
				
				En el libro, hablo de cohabitación. La IA 
				complementando a nuestra inteligencia nos puede llevar a hacer 
				cosas hasta ahora impensables. 
				 
				
				También a abordar retos complejos como los 
				que plantea el cambio climático. 
				 
				
				O nos ayudamos de herramientas como la IA 
				para predecir, tomar decisiones, ser más eficientes y 
				sostenibles o no sé cómo vamos a salir de esta. 
				 
				
				Al final, para bien o para mal, los humanos 
				hemos adoptado toda tecnología que ha caído en nuestras manos, 
				no hay vuelta atrás. 
				 
				
				Además, lo que puede hacer la IA, no lo 
				podemos hacer nosotros. 
				 
				
				Mientras esté en nuestro control, no veo 
				problemas.
				
				
 
				
			
				
				
				
				Jordi Torres
				
				
				durante una 
				conferencia sobre inteligencia artificial.
				
				Foto cedida por 
				el entrevistado
				 
				 
				 
				
				Según el
				
				
				FMI, la IA 
				afectará al 60% de los trabajos en las economías avanzadas y 
				existe el riesgo de que reemplace empleos y profundice la 
				desigualdad.
				 
				
				Es cierto, lo va a cambiar todo. 
				 
				
				Pero, mira, mi abuelo trabajaba 80 horas a la 
				semana y mi hijo trabaja 40, ¿esto es bueno o es malo? Está 
				viniendo muy rápido y nos coge sin capacidad de reacción. 
				
				 
				
				Y el que pierde el trabajo hoy, mañana no se 
				puede incorporar a otro ámbito distinto. 
				 
				
				¿Pero cuál es el problema de que haga parte 
				del trabajo? 
				 
				
				El reto es cómo nos organizamos a nivel 
				social. Por otro lado, el negocio de la IA está en manos de 
				pocos y estos pocos se están haciendo cada vez más ricos. 
				
				 
				
				Si juntas esto con la facilidad que la IA 
				provee a las personas para elaborar fake 
				news, nos puede llevar a una gran crisis social. 
				
				 
				
				Nos tendríamos que poner las pilas.
				
					
						
						
						"El 
						negocio de la IA está en manos de pocos 
						
						que 
						se están haciendo cada vez más ricos. 
						
						Si a 
						ello añadimos 
						
						la 
						facilidad con que esta tecnología 
						
						
						permite elaborar 'fake news', 
						
						
						puede conducirnos a una gran crisis social"
						
						
 
					 
					
				 
				
				¿Existe hoy una 
				tecnología que hiciera innecesario un 
				actor para rodar una serie o una película o un médico para 
				atender pacientes? 
				 
				
				Depende.
				 
				
				Si hoy en día no se pueden realizar películas 
				sin actores en las que todo parezca real, se hará pronto. Pero 
				quizás sean un bodrio. Ahora, una buena película, tengo mis 
				dudas.
				 
				
				Lo que también pasará es que se generará un 
				montón de contenido realista y un solo director o un solo 
				guionista podrá supervisar 10 películas, en vez de una.
				 
				
				En el caso de los médicos, estoy seguro de 
				que, sobre ciertos diagnósticos muy sistemáticos, ya hay una IA 
				que puede tomar la decisión. 
				 
				
				En el BSC se está trabajando con
				
				simulaciones de ordenador, gemelos digitales e IA para ver 
				cómo una proteína o un medicamento interacciona con las células 
				cancerígenas. 
				 
				
				Al final, la IA junto con la humana permite a 
				un médico tomar mejores decisiones y aplicar mejores 
				tratamientos. 
				 
				
				Pero esta tecnología sola no va a ninguna 
				parte. 
				
					
					Lo que se persigue es no sustituir al humano, sino 
				complementarlo. 
					 
					
					Puede ayudar a que el tiempo del médico se 
				dedique a tareas de más valor añadido. 
				
				
				Se trataría, por así decirlo, de subcontratar 
				a una IA para hacer la parte del trabajo más mecánica.
				 
				 
				 
				
				La IA tiene un 
				importante impacto ambiental por su gran consumo energético y 
				emisión de CO2. 
				 
				
				¿Qué implica en el 
				contexto de la actual emergencia climática?
				 
				
				Los supercomputadores con los que se entrena 
				la IA consumen mucha electricidad, pero este no es el problema.
				
				 
				
				Por contextualizarlo, si los casi 10 millones 
				de abonados de Netflix España ven una hora una película, 
				consumen lo mismo que entrenar el GPT-3 una vez. 
				 
				
				Es decir,
				
					
					lo que cuesta mucho tiempo y 
				energía es que aprenda, entrenarlo y eso, en la versión que has 
				consultado tú, ocurrió por última vez en enero de 2022. 
					
				
				
				El problema es el mundo digitalizado que 
				tenemos. 
				
				
				 
				
				Piensa cuando entramos en el coche y conectamos el GPS 
				para consultar Google Maps, con información de 220 países y 
				pudiendo pedir lo que queramos de donde queramos.
				 
				
				Todo esto gasta mucha energía, 
				deberíamos consumir menos en general.
				 
				 
				 
				
				Relatas que la mayor 
				dificultad para el progreso de la IA son las limitaciones de la 
				computación y citas las posibilidades de los chips neuromórficos 
				y la eventual computación quántica. 
				 
				
				¿En qué consisten?
				
				 
				
				Los chips neuromórficos integran el algoritmo 
				en su hardware, lo que les hace más eficientes. 
				 
				
				Los supercomputadores quánticos aún no 
				existen. 
				 
				
				Lo que vamos a montar antes del verano en el 
				BCS es una infraestructura que permita hacer experimentos 
				quánticos para avanzar en supercomputación, un entorno sin 
				influencias electromagnéticas, con un frío determinado... 
				
				 
				
				Pero hasta que dispongamos de 
				supercomputación quántica aún queda un recorrido. Y tampoco es 
				evidente que, para las redes neurales, la computación quántica 
				sea una solución.
				 
				
				Como explico en mi libro, el desarrollo de la 
				IA se basa en tres pilares: 
				
					
				
				
				Datos, ya hemos usado todos los que había en 
				Internet; algoritmos, ya son miles de millones; y máquinas, 
				consumen mucho. 
				
				 
				
				Seguir progresando es un reto.
				
					
						
						
						
						"Europa tiene tres superordenadores, 
						
						uno 
						de ellos en Barcelona, del tamaño de los que tienen 
						
						
						cualquiera de estas empresas tecnológicas californianas
						
						
						
						[Google, Microsoft, etc.]. 
						
						Si 
						no tenemos más, 
						
						
						¿cómo vamos a tener IA propia? "
						
					 
					
				 
				
				También crees que 
				Europa tendría que aumentar su capacidad en supercomputación.
				 
				
				Europa tiene tres supercomputadores del 
				tamaño de los que tienen cualquiera de estas empresas de 
				California, uno en Finlandia, otro en Italia y el de Barcelona.
				
				 
				
				Si no tenemos más, ¿cómo vamos a tener IA 
				propia? 
				 
				
				Los modelos ChatGPT tienen su moral, su 
				ética, sus sesgos, que son los suyos porque al final están 
				entrenados con sus datos.
				 
				
				Mateo Valero Cortés [director del BCS] 
				lo explica muy bien: 
				
					
					en Europa somos árbitros de un partido 
					que no estamos jugando.
				
				
				¿Y de qué se hacen estos supercomputadores?
				
				 
				
				Los circuitos del que tenemos en Barcelona 
				son Nvidia e Intel, que nuevamente son empresas californianas.
				
				 
				
				Hay una iniciativa europea para hacer chips 
				propios que permitan hacer supercomputadores propios y una IA 
				propia que podamos controlar. 
				 
				
				A Europa le falta tiempo para estar al día de 
				este partido que se está jugando.
				 
				 
				 
				
				Dices que la IA no 
				distingue el bien del mal y urges a una regulación ética y 
				responsable, pero ese criterio varía entre las personas y las 
				culturas. 
				 
				
				¿Cómo podemos 
				asegurar que se avanza según ciertos principios?
				 
				
				Primero, debemos tener opinión del tema para 
				decidir entre todos qué queremos. 
				 
				
				La mayoría consideraría que aplicar la IA a 
				la interpretación de imágenes médicas es un buen avance, pero es 
				la misma tecnología que se usa para detección facial y que en 
				China se emplea para controlar a la población. 
				 
				
				En Cataluña se ha debatido sobre poner este 
				tipo de cámaras en las prisiones, ¿es bueno o malo? 
				 
				
				Yo, por ejemplo, soy muy antimilitarista y 
				cuando veo su aplicación al armamento autónomo, creo que es 
				malísimo.
				
					
						
						
						"La 
						mayoría consideraría que aplicar la IA 
						
						a la 
						interpretación de imágenes médicas 
						
						es 
						un buen avance, 
						
						pero 
						es la misma tecnología que se usa 
						
						para 
						detección facial y que en China 
						
						se 
						emplea para controlar a la población"
						
					 
					
				 
				
				Mencionas que la IA 
				puede facilitar muchos avances en el ámbito del derecho, ¿podría 
				en algún momento acabar regulándose a sí misma? 
				
				 
				
				Me refería al ámbito de la redacción o la 
				búsqueda de información en procesos judiciales complejos, por 
				ejemplo. 
				 
				
				Pero, con lo que me preguntas, estás dando 
				por sentado que la IA tiene conciencia de sí misma. Esta, que 
				nos pintan en la ciencia ficción, ni existe, ni hay indicios de 
				que pueda existir en un futuro cercano. 
				 
				
				Con la tecnología actual es imposible que una 
				máquina sea consciente. 
				 
				
				Parafraseando al especialista en IA Stuart 
				Russel, nos hacen falta unos cuántos Einstein con inventos 
				disruptivos para que la IA pueda ser consciente de sí misma, 
				tenga la capacidad de razonar, sentido común o sea capaz de 
				distinguir causa y efecto: 
				
					
					¿sale el sol porque canta el gallo o 
					canta el gallo porque sale el sol?
				
				
				Ahora mismo, es imposible que la inteligencia 
				artificial se regule a sí misma porque, en el fondo, es tonta.
				
				 
				
				La que gana al ajedrez, si en vez de un 
				tablero de 8 por 8 le pones un tablero 8 por 9, ya no sabe 
				jugar. Cualquier jugador medio le ganaría. 
				 
				
				No digo que no tengamos que ocuparnos de 
				estos temas, digo que debemos atender otros más inminentes 
				porque con la tecnología actual ya se pueden hacer barbaridades.
				
					
						
						
						
						"Ahora mismo, 
						
						es 
						imposible que la inteligencia artificial 
						
						se 
						regule a sí misma porque, 
						
						en 
						el fondo, es tonta. 
						
						La 
						que gana al ajedrez, 
						
						si 
						en vez de un tablero de 8 por 8
						
						 le 
						pones un tablero 8 por 9, ya no sabe jugar"
						
						
 
					 
					
				 
				
				La escritora 
				especializada en tecnología Marta Peirano cree que cuando los 
				gurús tecnológicos piden más regulación para conjurar el riesgo 
				de la singularidad tecnológica, lo que en realidad persiguen es 
				regulaciones a su medida que favorezcan su monopolio frente a 
				modelos abiertos y colaborativos. 
				 
				
				¿Qué opinas?
				 
				
				Entramos en el campo de la especulación y 
				esto es aplicable a cualquier sector industrial. 
				 
				
				Sí es cierto que si pones limitaciones a 
				conseguir según qué cosas que ellos ya tienen, los mantiene en 
				una situación de dominio. 
				 
				
				Tras el lanzamiento de ChatGPT-4, Musk 
				firmó una
				
				carta con un grupo de expertos en IA solicitando una 
				moratoria de medio año antes de desarrollar sistemas más 
				potentes. 
				 
				
				Pero él estaba por otro lado pidiendo a la 
				gente de Nvidia miles de chips para desarrollar IA, de los que 
				en aquel momento aún no habían llegado al BSC.
				 
				
				¿A qué juega...? 
				 
				
				Y si a Sam Altman [director ejecutivo 
				de OpenAI] le preocupa tanto, ¿por qué se ha metido a hacerlo?
				 
				 
				 
				
				¿Tú crees que habría 
				que ralentizar su desarrollo? 
				 
				
				No creo que se tenga que ralentizar, pero no 
				se puede dar autonomía absoluta. 
				 
				
				No podemos continuar con este despropósito de 
				"lo probamos y luego veremos qué pasa", como está ocurriendo. Lo 
				estamos viendo en otras áreas, como las redes sociales, en las 
				que se usa IA. 
				 
				
				Son un fenómeno del mundo de la 
				digitalización que tiene vida propia y que está machacando a 
				todos nuestros jóvenes.
				 
				
				También debemos garantizar por ley que 
				cualquier actor del que se use su voz, gane su royalty porque 
				hoy te pueden plagiar la voz. 
				 
				
				En definitiva, tenemos que estar de acuerdo 
				en qué cosas no se pueden hacer.
				 
				
				No se puede hacer armamento autónomo, por 
				ejemplo. Yo sería contundente, hay cosas que tendrían que estar 
				prohibidas. Y Europa va por aquí, como en el caso del 
				reconocimiento facial, que está muy limitado. 
				 
				
				Tenemos que ponernos todos a pensar en cómo 
				controlamos esta herramienta porque es muy potente y lo va a 
				cambiar todo.
				
					
						
						
						"No 
						creo que la IA se tenga que ralentizar, 
						
						pero 
						no se puede dar autonomía absoluta. 
						
						No 
						se puede continuar con este despropósito 
						
						de 
						"lo probamos y luego veremos qué pasa", 
						
						como 
						está ocurriendo "
						
					 
					
				 
				
				Este año, la mitad de 
				la humanidad va a votar. 
				 
				
				Teniendo en cuenta 
				que mediante IA se pueden hacer textos, fotos, audios o vídeos 
				falsos e indistinguibles de la realidad, ¿qué deberíamos hacer 
				los ciudadanos?
				 
				
				La tecnología para suplantar por voz e imagen 
				a personas existe y cada vez es más accesible. 
				
					
					Esto es así y debemos ser críticos...
				
				
				Ahora, con lo que hemos hablado este rato, 
				podríamos crear un bot con mi voz y mi madre no podría 
				distinguirla. 
				 
				
				Y por redes sociales corren muchas cosas 
				falsas. Yo, por ejemplo, tengo mucho cuidado con lo que recibo 
				por Whatsapp. 
				 
				
				La ciudadanía debería intentar informarse a 
				través de canales serios; si se deja influenciar solo por la 
				burbuja que su Facebook o su TikTok le ha generado, va mal...