Intangiblia™ en español
#1 Podcast en Goodpods - Podcasts independientes sobre Propiedad Intelectual
#3 Podcast en Goodpods - Podcasts sobre PI
Hablando claro sobre Propiedad Intelectual. Podcast de Intangible Law™
Intangiblia™ en español
Domingo Senise de Gracia - IA, ética y sostenibilidad global desde la ingeniería lingüística
¿Qué pasa cuando un ingeniero-lingüista se sienta a hablar claro sobre IA generativa, lenguaje y poder? Desde el primer minuto, desmontamos la fantasía de la perfección algorítmica y ponemos sobre la mesa una verdad incómoda: los modelos de lenguaje aprenden de repositorios inmensos que mezclan oro y ruido, por eso alucinan y traen sesgos. La clave no es exigir magia, sino recuperar una habilidad que a veces olvidamos: el pensamiento crítico.
Con Domingo Senise de Gracia, nos adentramos en la trampa del lenguaje natural, ese efecto que nos hace creer que la fluidez equivale a comprensión. Un LLM no “sabe” lo que escribe; sólo predice secuencias plausibles. Con ejemplos concretos, desde detección de fraude a patrones de juego en Go, mostramos dónde la IA ya nos supera por escala y variabilidad, y dónde nunca reemplazará lo humano, especialmente en empatía, escucha y contexto. También hablamos de desinformación: nada nuevo bajo el sol, pero hoy está democratizada. La misma tecnología que fabrica engaños sirve para separarlos si diseñamos con datos curados, trazabilidad y auditoría independiente.
El corazón del episodio late en una idea: para construir IA útil y justa, las humanidades deben sentarse al lado de la matemática. Filosofía, lingüística, sociología y antropología aportan lentes para entender impactos reales, corregir sesgos y diseñar sistemas transparentes. Discutimos la economía de la atención, cómo los algoritmos nos retienen amplificando afinidades, y qué prácticas nos devuelven agencia. Exploramos por qué un “idioma universal” para humanos y máquinas ignora que lenguaje y cultura cambian sin permiso, y cerramos con una regla minimalista para entrenar cualquier sistema: haz lo que quieras si no pones en riesgo a la humanidad.
Si te reta esta mirada franca sobre IA, sesgos y lenguaje, apóyanos: suscríbete, comparte este episodio con tu gente y cuéntanos en los comentarios qué límites te gustaría ver en los sistemas que usamos cada día. Tu perspectiva ayuda a que más personas piensen mejor sobre tecnología.
Descubre Protección para la Mente Inventiva – ya disponible en Amazon en formatos impreso y Kindle.
Las opiniones expresadas por la host y los invitados en este pódcast son exclusivamente personales y propias, estas no reflejan necesariamente la política o postura oficial de las entidades con las que puedan estar vinculados. Este pódcast no debe interpretarse como una promoción ni una crítica a ninguna política gubernamental, posición institucional, interés privado o entidad comercial. Todo el contenido presentado tiene fines informativos y educativos.
¿Podríamos crear modelos de lenguaje totalmente asépticos, sin sesgos, sin tener ningún tipo de desdicación y de alucinación? No, es muy difícil. El tema de las alucinaciones, sobre todo, viene muy determinado porque al final, para entrenar estos grandes modelos de lenguaje, lo que se utilizan son grandes córporas, grandes repositorios de información. Y en esos repositorios de información hay tanto contenido bueno, bien filtrado, bien curado, verdadero, como contenido que no es tan bueno.
Speaker 2:Bienvenidos a Intangibility. Hoy conversamos con alguien que entiende el lenguaje como código andar como herramienta, pero también como responsability. Domingo Cenice de Gracia is doctorado ingeniero inteligencia artificial por la Universidad Politécnica de Madrid. Durante sus últimos 15 años oferecido, inteligencia artificial, fundando su propia empresa de inteligencia artificial aquí en Suiza, desempeñando puestos directivos in corporations como Xperia Suiza or Price Waterhouse Cooper. The linguistic and philosophia permea su trabajo and investigación in the ambitious artificial. Domingo has public, the impact of the intelligence artificial in the scenario geopolitical or the implications philosophical of the model of the LLM. Cuéntanos un poco de ti, cómo terminaste aquí en Suiza.
Speaker 8:Como te digo, muchas gracias por la invitación, por tu curiosidad, por querer saber más sobre la inteligencia artificial y por tus palabras iniciales. Yo creo que poco más puedo añadir. Bueno, sí, sí, yo creo que podría añadir algo más. Nací, no como decía Cervantes, en un lugar de la mancha cuyo nombre no quiero acordarme. No, no, o sea, nací en un pueblecito de la provincia de Jaén, en el sur de España, en Bailén, y desde muy jovencito un poco me convertí en un español errante. Tuve la ocasión de vivir y trabajar en diferentes países, en Estados Unidos, en Canadá, en Alemania, y ahora, pues, desde más de una docena de años aquí en Suiza. Como has dicho, mi formación es bastante heterodoxa y heterogénea, porque, bueno, además de ingeniería, economía, lingüística, pero en el fondo, yo creo que si te quieres dedicar a temas de inteligencia artificial, es necesario que tengas una formación muy transversal, muy horizontal. Y bueno, no sé, se me viene así a la mente esa combinación de disciplinas, por ejemplo, ya la tenemos desde el inicio. Es famoso los que nos dedicamos a estudiar inteligencia artificial, sobre todo lo que es la parte, la rama de procesamiento del lenguaje natural, lo que se llama in English natural language processing. She miramos que los origines of what actually the grand model of language retrotraen at the first. CHIP was a philologist or a linguist, but at the same time, he was statistical, and he preoccupied, such as the CIP or the distribution of CIP, what he business was patrons of repetition of palabras in text. Entonces, como te decía, volviendo al inicio, esa combinación de disciplinas para algo tan transversal como es la inteligencia artificial es fundamental.
Speaker 2:Sí, porque es todo lo que conforma. No es solamente la parte de ingeniería, es la lingüística. Pero qué interesante eso que me cuentas del tema de la predicción y de los patrones de cómo hablamos. Que uno piensa que la manera de hablar o escribir es bien espontánea, pero realmente no. Tiene una estructura predecible.
Speaker 8:Al final, nuestro cerebro es una máquina tremendamente eficiente. Es decir, intenta el cerebro, para que te hagas una idea, consume alrededor del 30% de la energía de nuestro cuerpo. Entonces, al final también tiene que. Ese consumo de energía lo tiene que hacer también de una manera muy eficiente. Y porque te cuento esto. Cuando intentamos generar un mensaje, cuando intentamos decir algo, cuando intentamos escribir algo, casi de una manera inconsciente buscamos, o sea, repetimos, lo que se dio cuenta Tsip es que repetíamos un conjunto de palabras muchas más veces que otros conjuntos diferentes de palabras algo más exóticos. ¿Y por qué lo hacíamos eso? Pues porque veíamos que con ese conjunto reducido de palabras, somos capaces de transmitir ese mensaje de una manera eficiente and no necesitamos rebuscar en el baúl de los recuerdos. Yo te lo comento aquí, empleo vario, but it looks en millones of seconds.
Speaker 2:Wow, okay, because it's a deficiency.
Speaker 4:Claro, effectively.
Speaker 8:It's a machine.
Speaker 2:Well, it is constructed. But dentro of other generation would be. Exactly. Parada in hombros sintéticos. ¿Se puede evitar?
Speaker 8:Esa es muy buena pregunta y te podría contestar, digamos, proponiéndote otra pregunta. Tirando de películas antiguas, no sé si llegaste a ver la película Matrix.
Speaker 3:Claro, pero tampoco es tan antiguo. No me hagas sentir bien.
Speaker 8:Cuando en ese momento que le dice Morfeo, creo. Morfeo le dice a Neo que es la pastilla roja o la pastilla azul. Yo te pregunto ahora qué es la pastilla roja o la pastilla azul. Yo te voy a dar la pastilla roja, no te voy a dar opción. Siempre hay que ir a la realidad.
Speaker 3:A la realidad.
Speaker 8:No podemos evitar las alucilaciones y los sesgos porque en el fondo, al igual que nosotros, nuestro lenguaje es imperfecto. Y digamos, nuestro cerebro, gracias a los, como te comentaba antes, gracias a esos cientos de miles de años de evolución, ya de por sí tiene mecanismos como para intentar criar la información, quedarse solo con los puntos de conocimiento y también, en cierto modo, poner un poco de sordina a esos sesgos que siempre tenemos cuando emitimos un enunciado. Because al final tenemos nuestros sesgos culturales, nuestros sesgos sociales, eso siempre nos va a acompañar. But as seres humanos, siempre estamos conformados por esas influencias que nos han ido rodeando and that we signed rodeando. Esa es la realidad. Intentar decir modelos de lenguaje totalmente asépticos, sin sesgos, sin tener ningún tipo de desdicación y de alucinación, no es muy difícil. El tema de las alucinaciones, sobre todo, viene muy determinado because al final, para entrenar estos grandes modelos de lenguaje, lo que se utilizan son grandes corporas, grandes repositorios de information. And esos repositorios de información hay tanto contenido bueno, bien filtrado, bien curado, verdadero, como contenido que no es tan bueno. Tenemos que hacer como una especie de trade-off de decir, bueno, si queremos tener modelos que estén muy bien entrenados, necesitamos repositorios de información muy, muy grandes para que el modelo se entrene bien. Pero al mismo tiempo tenemos que asumir el riesgo, tenemos que aceptar el riesgo de que probablemente mucha de esa información que estamos metiendo para el entrenamiento no sea tan buena. Entonces, no son evitables, te digo, no son evitables esos, yo creo que no se pueden evitar esos sesgos y esas alucinaciones, pero sí podemos trabajar para detectarlos. Vamos a intentar, a partir del resultado que nos da un gran modelo de lenguaje, vamos a intentar detectar a través de nuestro pensamiento crítico, que esta es una palabra fundamental en esta nueva etapa que tenemos de la inteligencia artificial. Ahora más que nunca, necesitamos pensamiento crítico para saber filtrar, para saber si ese resultado que nos está dando a model of inteligencia artificial is bueno, es una alucinación, is bueno in certain aspects, but we fall in others areas, and we have to enrique it. No, no, no, and much at the end, when we commentábamos la ayuda de los modelos oficiales artificial, sí, sí, son verdaderamente una ayuda, pero al mismo tiempo también exigen de nosotros una capacidad de pensamiento crítico que a lo mejor hasta ahora no lo habíamos empleado, or que incluso, por desgracia, desde mi humilde punto de vista, la habíamos un poco olvidado, dejado ahí en el baúl de los recuerdos. Tenemos que volver a recuperar ese pensamiento crítico. Si me apuras en ese análisis casi casi filosófico, es decir, la duda metódica de Descartes, de decir, bueno, ¿es esto así? Incluso podemos una de las publicaciones que hice, podemos utilizar los modelos de inteligencia artificial para que ellos mismos se cuestionen los resultados que nos están dando. Y nos ayuden también a nosotros en ese proceso de pensamiento crítico. Un último apunte. A finales del año pasado escribí escribí un post sobre un artículo académico que we had leader of Martin Boyle, and it lleva a otro ambition of it, but it is relacionado with the sesgos and alucciations. Boy, with others investigators another 17 models of language different.
Speaker 2:Adaptaba el recurso de acuerdo a quien asumía que lo estaba leyendo.
Speaker 8:Lo que te podría decir, o sea, las conclusiones que nos dicen Build y los otros investigadores es que hay un sesgo intrínseco en esos grandes modelos de lenguaje. Es muy interesante eso. Y en eso también eso nos tiene que poner, nos tiene que encender la alarma de decir.
Speaker 2:De que ya te va a decir lo que tú crees que eres que usar.
Speaker 8:Ojo que en función del gran modelo de lenguaje que podamos escoger, el resultado que podamos obtener como respuesta puede variar, ideológicamente puede variar. Porque al final no solamente se trata de, como te decía, no solamente se trata de los textos con los que tú alimentas, con los que tú entrenas el gran modelo del modelo, sino se basa, organize en cuenta la parte de refinado, the retroalimentation when you do it, when you want to the model function or a revision of those results. The revisors who have your aliment natural or something.
Speaker 2:This is very interesting. It's totally generated. My voice, I cloned, sintetic for it, and I have a conversation basically with me from the thing. And when I'm constructing the script, I salt with commentaries, I'm going to say descending, but it's not. And I'm going to say, No, but I don't think so, I don't want to include this, nothing.
Speaker 8:So it's for the fashion of entrenchment, but also for the fashion of revision.
Speaker 2:De que te digan las cosas factuales. No que te pongan esos sesgos y te lo pongan como si fuera la realidad.
Speaker 8:Claro, ahí estás tocando un tema que es precisamente el tema de mi tesis doctoral, que es la parte de desinformación. ¿Cómo se pueden utilizar estos grandes modelos de la general la inteligencia artificial generativa para desinformar? Yo ahí lo que te diría es que, como decían los romanos, ni el novum subsolen, es decir, nada nuevo bajo el sol. Entonces, esto lo hemos venido haciendo prácticamente desde que el hombre es hombre, ¿no? Claro, distorsionar la realidad, tergiversarla, retorcerla para acercarla a nuestro relato. Esto no es nuevo. ¿Qué es lo que ocurre? Que a día de hoy con la inteligencia artificial hemos democratizado ese proceso. Ahora es muy fácil.
Speaker 2:Para bien y para mal.
Speaker 8:Para bien y para mal, que esas otras, esos de los temas. Es muy fácil desinformar a través de la inteligencia artificial, pero también la inteligencia artificial es una herramienta magnífica para ayudarte a acrivar cuál es la información falsa de la información verdadera.
Speaker 2:Para separar las aguas. Bueno, y si tuvieras que definir un límite tecnológico para que la IA no automatice, ¿cuál sería?
Speaker 8:Yo creo que la inteligencia artificial nunca va a poder empatizar la. Perdón, nunca va a poder automatizar la empatía humana. Quería decir. No, eso es imposible de automatizar. Eso es imposible de automatizar. Porque la empatía no es un tema. No es lo hijo. Y además, no es solo No es puramente sensorial. O sea, no es a través de la voz o a través del oído. Hay algo mucho más. O sea, hay algo, hay una comunicación, se me apuras casi casi, que va más allá de lo que son los sentidos. Es el gesto, es la mirada, es el porte. Y todo eso genera empatía. Entonces la inteligencia artificial. Eso jamás lo podrá automatizar. Y precisamente yo creo que las profesiones, hablando que tanto que se habla ahora de cómo nos cómo nos puede impactar la inteligencia artificial en el mercado de trabajo, yo creo que las profesiones que van a tener más futuro, y no te hablo en el no te hablo en el largo plazo, te hablo en el muy corto plazo, son aquellas profesiones en las que la componente humana sea esencial. Sí, porque a día de hoy, digamos, el procesamiento, la automatización, todo eso lo puede hacer una inteligencia artificial infinitamente mejor que un ser humano. Y en menos tiempo, y con menos consumo de recursos y de una manera mucho más precisa. Pero toda la parte, ya te digo, toda la parte de la comprensión humana, de la escucha, eso, y por desgracia, la sociedad en la que vivimos a día de hoy, eso es más necesario que nunca.
Speaker 2:Sí, porque mientras más tecnológicos nos volvemos, más conectados queremos estar también.
Speaker 8:Más conectados, y ahí te hago una pregunta. Y no más aislados.
Speaker 2:Sí, también. Es como una paradoja, porque nos aislamos, pero buscamos conexión también. Pero de una manera diferente.
Speaker 8:Es una manera diferente. Yo creo que vivimos en sociedades que se mueven muy rápido, que hay poca conexión entre las personas, el día a día nos come, ¿no? Prácticamente. Y es una pena, ¿no? Porque se pierde esa capacidad de que nosotros seamos los dueños de nuestro tiempo. Siempre tenemos algo que hacer. Y luego también yo creo que muchas veces toda esta tecnología, y no entro a demonizar las redes sociales, hablo en general de la tecnología. Yo creo que es lo que se ha venido a denominar la economía de la atención. Son máquinas de captación de nuestra atención. Porque en definitiva, todas estas, no voy a decir nombres, ¿no? Pero todos los sabemos. Las plataformas. Todas estas grandes plataformas tecnológicas, en definitiva, viven de tenernos pegadas a las pantallas. Cuanto más time pegados a las pantallas, más valen ellas.
Speaker 2:Sí, sí, sí. Y te premian for el time that you invierte en ella.
Speaker 8:Ellos intentan pegarnos pantallas that no levanta la mina top. And how can you say?
Speaker 2:Satisfacción inmediata.
Speaker 8:Satisfacción immediata and al final te muestran videos, te muestran opinions, te sugieren personas que coinciden bastante con tus puntos de vista.
Speaker 4:Y que te alimentan tus demonios también.
Speaker 8:Bueno, te alimentan tus demonios, te refrendan en el punto de vista que tienes en ese momento. Ya te digo, atención, these platforms tecnológicas viven, and this very much.
Speaker 2:No, but it's the you know in the way that you listen, what you interested, what I'm doing. Because an example, in my platform, as I'm very contentious in maternity, criances, and all the measure much comedian romantic, I'm a romantic paternity, I alive much. And so this is right. I want to appreciate more things of the maternity, but I'm going to say the part of the romance, you involve, and I walk into the story, and I go and enter in a circle vicious.
Speaker 8:I think it's the movement of the pendulum. But I think that these generations that vienn for the pantallah no longer. Exactly, because combinar, combinar la pantalla con la vida social and van a encontrar, poco a poco, van a encontrar el punto medio. No, digamos, yendo al otro extremo del péndulo, decir, abomino de las pantallas, no quiero saber absolutamente nada de las máquinas. No, porque al final las máquinas, los modelos de inteligencia artificial, como los Rolling Stones, han venido para callarse. No se van.
Speaker 4:No se van nunca.
Speaker 8:No se van a ir. Entonces, lo que tenemos que hacer es saber convivir y saber, como tú decías antes, al final pueden ser esos hombros de gigantes sobre los que nos aposentemos para mirar mucho más allá.
Speaker 2:Sí, perfecto. Y si en tu experiencia, ¿cuáles son los entornos donde la IA aporta valor real sin sacrificar contra el humano?
Speaker 8:Como te decía, yo creo que la inteligencia artificial en toda la parte de las habilidades suaves, que es la traducción literal del inglés, o las habilidades cognitivas, pues ahí todavía se queda corto con respecto a lo que es el ser humano. Pero ahora bien, todo lo que esté relacionado con procesamiento brutal de información, brutal me refiero a grandes volúmenes de información, procesamiento, gestión, manipulación, ahí las máquinas son infinitamente mejores que los humanos. Y eso es lo que te decía antes, ahí nos debemos de apoyar en ellos. No sé, por ejemplo, uno de los proyectos que hice con Haita, con mi empresa de inteligencia artificial, detección de fraude, cuando en realidad tienes que escribar millones de operaciones, aunque tengas un departamento de mil personas, se te escapan cuando estamos hablando de cientos de millones de operaciones. Y ya no solamente cribar línea a línea, sino también buscar patrones, que eso es lo que hace muy bien una inteligencia artificial. Tú puedes, digamos, volcar ahí todos los datos y a través, por ejemplo, de modelos no supervisados de aprendizaje automático, decir búscame patrones. O sea, búscame conjuntos de comportamiento que a mí se me pasan como ser humano porque no soy capaz de aglutinar tantos puntos diversos de información. Ahí, por ejemplo, la inteligencia artificial is muy buena. Ahora bien, como te decía siempre, la inteligencia artificial is the part of the part of the way. It's an operator magnificent, the intelligent artificial, but we have to guire. But we have to do the instructions, the strategy. Efectivamente. Efectivamente.
Speaker 2:Okay. The pattern of comportamiento, the activities delictives usually sign a misconduct, or comportan de una manera more or more predecible.
Speaker 8:You think al final loss tendemos a repetir siempre patrones, claro. Uno de las uno de los grandes cuando la máquina, el modelo de inteligencia artificial, ganó al ser humano jugando algo, al juego que eso fue.
Speaker 2:El juego de mesa.
Speaker 8:Ese fue, digamos, el gran salto que hubo cuando nos dimos cuenta de que probablemente estábamos ante una evolución de la inteligencia artificial que era ya un salto cualitativo, casi casi cuántico. Lo que el modelo de inteligencia artificial hizo, y volviendo al tema de que nosotros repetimos los patrones, es que empleó jugadas en el Go que nunca jamás se habían. O sea, parecía inicialmente que eran jugadas torpes, jugadas absurdas, pero que en el largo plazo, conforme el juego evolucionaba, tenían todo el sentido al mundo porque le llevó a ganar al oponente humano.
Speaker 3:Oh, wow.
Speaker 8:Entonces, digamos, esa variabilidad que tiene el modelo de inteligencia artificial fue capaz de construirlo porque, digamos, su panoplia, su opciones era mucho mayor que la del ser humano, pero nosotros los humanos, como tú dices, tendemos a repetir lo que funciona, and nuestra panoplia is bastante more limited than the modelo de inteligencia artificial.
Speaker 2:Sí, tiene totalmente sencillo. But it's interesting this we've been talking about the machine with the ajedrez, with this type of thing, that has the information, or does have the information of all the people who have in the history have the ventage in this sense. And including the people in the manner that they enter, when they have an opponent, they study to see why their style is. No, no, no.
Speaker 1:It's a bit more, but then it's interesting.
Speaker 8:But I think it's a thing, as I think, at the moment depends the intelligence artificial.
Speaker 2:It's a herramienta.
Speaker 8:Algunas viene a mentee la frase that pronunciation Oppenheimer when he had the explosion of the bomb atómica. Me he convertible en la muerte destructor de mundos, que se basa en el libro sagrado de los hindúes. Inicialmente, ese era el propósito de la investigación que llevaba a cabo Oppenheimer y su equipo. La idea no era crear una bomba atómica, pero al final terminaron en eso.
Speaker 2:Eso fue lo que terminó pasando. Como lingüista e ingeniero, ¿cuál es el mayor error que ves en el diseño actual de los modelos LLM que intentan imitar el razonamiento humano?
Speaker 8:Hay dos puntos, ¿vale? Yo creo que, volviendo a lo que decías, lo que decíamos antes, que no es un corta y pega, ¿no? Yo creo que, en primer lugar, tenemos la mala costumbre, ¿no? Nos volvemos muy exigentes con los modelos de inteligencia artificial.
Speaker 4:Yo peleo con el mío todo el tiempo.
Speaker 8:Claro, y queremos buscamos la perfección en un modelo de inteligencia artificial cuando nosotros no somos perfectos. Y al final nosotros somos los creadores de esos modelos de inteligencia artificial. Entonces, por ende, siguiendo un razonamiento lógico, no pueden ser perfectos. Lo que ocurre, y aquí es un tema, tenemos que evitar, como lo llamo yo, tenemos que evitar caer en la trampa, caer en la trampa del lenguaje, del lenguaje natural. Y cuál es la trampa del lenguaje natural. El hecho de que yo interactúe con un gran modelo de lenguaje in my proper idioma, me hace pensar de manera inconsciente que esa cosa que está delante de mí va a ser capaz de darme siempre la respuesta correcta y no va a fallar. Y eso no es así. Because me dará una respuesta con sesgos, me dará una respuesta que no es correcta, pero lo mismo que tú, que tú, Leticia, como ser humano, también me puedes dar una respuesta que no es correcta y con tus sesgos. Entonces, ese es el primer punto que tenemos que tener en cuenta. And el tema del razonamiento, los grandes modelos del lenguaje no son capaces de razonar como los seres humanos. Están muy lejos de llegar a razonar como los seres humanos. Tú me podrías decir, pero bueno, yo he visto. Les pregunto algo y construyen una frase de una manera, construyen un texto que en cualquier idioma, es que lo hacen perfecto. Sí, pero es por su entrenamiento. Como te decía, al final ellos son máquinas que han sido entrenadas con miles de millones de textos. Han buscado patrones, combinaciones de palabras en esos miles de millones de textos. Y cuando tienen que generar un nuevo texto, lo que hacen de manera también en millonesimas de segundo, lo que hacen es buscar asignar probabilidades a combinaciones de palabras. Esto ya te digo que te lo cuento así, de manera tranquila, reposada, esto lo hacen en nada, en millonesimas de segundo. Y generan esos textos que son tan plausibles y tan bien comprensibles. Pero no razonan. En definitiva, un gran modelo de lenguaje, lo que escribe, no sabe lo que está escribiendo. No lo entiende desde el punto de vista semántico-cognitivo.
Speaker 2:Internalizado, ¿no?
Speaker 8:No lo entiende. Cuando escribe los perros ladran por la noche, un modelo de inteligencia artificial, un gran modelo de lenguaje, no sabe el concepto perro, no sabe lo que es. Pero lo que sí ha visto después de mucho entrenamiento es que el sujeto verbo, el sujeto perro, normalmente se acompaña en muchas ocasiones de un verbo que es ladrar. Entonces, por eso los agrupa.
Speaker 2:Los agrupa. Pero no porque sabe que los perros ladran.
Speaker 8:Claro, pocas veces ha visto que el sujeto perro se acompañe del verbo brillar.
Speaker 2:Brillar.
Speaker 8:Entonces, claro, entonces, si tiene que escoger entre el verbo brillar y el verbo ladrar, asigna muchas más probabilidades a que sea el verbo ladrar que a que sea el verbo brillar. Probablemente a lo mejor en alguna poesía.
Speaker 2:Brilló algún perro.
Speaker 8:Algún perro brilló, ¿sabes? Pero claro, él siempre va a buscar la combinación más plausible.
Speaker 3:Ok.
Speaker 8:Para que tenga sentido el mensaje que genera. Porque, en definitiva, un gran modelo de lenguaje lo que intenta siempre es, entre comillas, intenta agradarnos. Intenta darnos un mensaje que sea coherente.
Speaker 2:Sí, pero una persona que no entienda a profundidad eso fácilmente se autoengaña, ¿no? Interactuando con inteligencia artificial.
Speaker 8:Claro, pero volvemos a lo que decíamos. Al final, un gran modelo de lenguaje o la actual inteligencia artificial generativa es una herramienta. No es más que eso. No es nuestro psicólogo de cabecera. No debemos de decir, oye, ¿qué decisión tengo que tomar para mi estrategia de inversión en cripto?
Speaker 4:Predice el mercado.
Speaker 8:No, o sea, te va a generar un texto en función del entrenamiento que has tenido. Incluso muchas veces ese entrenamiento tiene un corte, es una frontera de corte. Es decir, esos grandes modelos del lenguaje, como son tan difíciles de entrenar y reentrenar, algunas veces están entrenados hasta a cierto moment in el tiempo. Andasta ahí te pueden dar una respuesta. Luego, más adelante, pues ya tienen que volver a reentrenarse. Y eso es muy costoso y muy tedioso.
Speaker 2:Claro. O sea, corre el riesgo que la información ya no esté actualizada.
Speaker 8:Pensamiento crítico. Hay que saber, ok, este texto, esta respuesta que me está dando, suena bien. Voy a analizarla primero, voy a ver si tiene sentido, y luego, en definitiva, también tengo que enriquecerla. Tengo que darle mi valor añadido.
Speaker 2:Sí, tiene que ponerle la parte humana. Efectivamente. Y cómo evitamos que los modelos aprendan de discursos sesgados o datos mal etiquetados cuando hablamos de decisiones sensibles.
Speaker 8:Ahí volvemos a lo que te comentaba en un primer momento, de este artículo, este paper que se publicó a finales del año pasado, o del sesgo intrínseco que tienen estos grandes modelos de lenguaje. Yo creo que ahí es sobre todo nuestro pensamiento crítico. Tenemos que saber que cuando estamos utilizando X modelo de lenguaje, pues tiene un sesgo determinado. El otro modelo de lenguaje tiene otro sesgo determinado. Podemos preguntar a varios, sacar nuestra propia conclusión e, insisto, generar nuestra propia respuesta, no un corta y pega, sino nuestra propia respuesta. Es difícil. Ahí también entramos en temas de, como te decía antes, de desinformación. Muchas veces detrás de estos grandes modelos de lenguaje, las empresas, las plataformas, sus. Es que muchas veces esta inteligencia artificial generativa, estas plataformas, estos grandes modelos de lenguaje, se ven como herramientas estratégicas nacionales para los países.
Speaker 3:Ok.
Speaker 8:Entonces, hay que tener eso en cuenta.
Speaker 2:Ok.
Speaker 8:No te queda la menor duda.
Speaker 2:Otra razón para tener miedo.
Speaker 8:No, no, no. Yo creo que es una cosa que es muy novedosa, respeto, ¿no? Okay. And be more conscientious of how we can use it. Utilizing it well, in a long time, we can use it well.
Speaker 2:No, but for that, but also in the arguments that we have actually. Un tema de que la naturaleza humana somos capaces de hacer maravillas y también de hacer desastres.
Speaker 8:Sí, sí, sí.
Speaker 2:Y con estas herramientas tecnológicas se amplifica. Sí, sí, sí, tal cual. ¿Dónde está el límite entre una IA que ayuda a interpretar el mundo y una que comienza a editarlo?
Speaker 8:Ahí. Ahí ya te digo, abordas directamente el tema de la desinformación a través de la inteligencia artificial. Editar una realidad. Sí, la inteligencia artificial. Bueno, nada nuevo bajo el saldo.
Speaker 2:La historia de quien la escribe.
Speaker 8:La historia la escriben los vencedores, ¿no? Editar una realidad sí se puede editar, but then we tenemos la capacidad de ir a las fuentes, al original, andar exactamente lo que pasó. La IA sirve para editar a favor de, but then for dónde está la edad of the reality. It would serve tanto para hacer que la historia suene una sintonia determinada, orgánica exactamente what era la sintonia original of the history.
Speaker 2:But it is possible that I've got the herramien to evitar.
Speaker 8:It's part of it. If I impregnate what I have, my manner of comporting me with the, what I screw, what I think, and you have to be your. incluso esta nueva ola, esta nueva etapa de la inteligencia artificial generativa, todavía no lo sabe hacer muy bien. Pero oye, también te digo una cosa. En el momento en el que un modelo de inteligencia artificial sea capaz de generar hipótesis sólidas, bienvenido sea, porque todo eso va a ayudar al avance de la ciencia.
Speaker 2:Alimenta.
Speaker 8:Pero por ahora, ahí todavía no hemos llegado. No lo descarto. Lo mismo que te digo, ya te digo, que, como te decía antes, que automatizar la empatía es algo, yo creo que va a ser imposible. Esto no lo descarto. No lo veo tan descabellado.
Speaker 2:Porque es más razonamiento científico y menos intuición. Y cuál ha sido el proyecto más éticamente desafiante que has liderado y cómo lo enfrentaste.
Speaker 8:Mira, afortunadamente, yo creo que nunca, en mis años de más de 15 años de trabajo con temas de inteligencia artificial, nunca he tenido que hacer algo que supusiera una lucha contra mis valores religiosos, éticos o morales. Yo creo que si me hubiera visto en esa tesitura, y vuelvo de nuevo al tema del pensamiento crítico. Yo creo que hubiera utilizado mi pensamiento crítico, which al final está permeado, está rodeado de todos esos valores religiosos, morales, éticos that form my personality, and we have actually talked about it.
Speaker 2:That's the point. Mantenerlo presented. Yep tiene la lingüística en modelar la IA.
Speaker 8:Mira, como te decía al principio, cuando me presentaba, yo creo que la economía, las humanidades son fundamentales. Cuando quieres, no solamente es la ingeniería, no solamente es la parte matemática, estadística or the codificación fundamental para trabajar en inteligencia artificial, sino también esa parte de economía y esa parte de humanidades. Y cuando me refiero a humanidades, no solamente me refiero a la lingüística, sino también a la filosofía, a la sociología, a la antropología. Todas esas disciplinas deberíamos, y ahí me meto como investigador en temas de inteligencia artificial, deberíamos incorporarlas mucho más, mucho más a todos los que se dedican a estudiar y trabajar con inteligencia artificial. Porque son claves, son fundamentales para el desarrollo presente y futuro de inteligencia artificial. Como a día de hoy, como te decías, tenemos una inteligencia, como la denominaba Turing, y casi que es más correcta, una inteligencia mecánica que es tremendamente eficiente desde un punto de vista computacional, a la hora del procesamiento, de la gestión, de la manipulación de datos. Pero si queremos que esa inteligencia sea verdadera, perdón, que esos modelos sean verdaderamente inteligentes, necesitamos incorporar esa parte humanistica que es clave en nuestra esencia como seres humanos, and that is what we have to do with respect to others.
Speaker 2:But the technology. Prefieres lógica matemática o intuición humana?
Speaker 8:Una mezcla de amas.
Speaker 2:IA que sigue reglas o IA que aprende sola.
Speaker 8:Inicialmente que aprenda sola y luego aplicaría ciertas reglas.
Speaker 4:Ok. Se le deja como correr libre y después vamos a ponerte en el camino.
Speaker 2:Números o contexto. Contexto. ¿Qué es más peligroso? ¿Una IA mal entrenada o una que no respeta límites humanos?
Speaker 8:Yo creo que la que está mal entrenada es la que no va a respetar límites humanos.
Speaker 2:Entonces eso va a llevar a que no respeta eso.
Speaker 8:Sí, sí, sí.
Speaker 2:Y va a ser lo que le dé la gana. Efectivamente. ¿Una IA que imita el pensamiento o una que realmente piense?
Speaker 8:Por ahora solo va a imitarlo.
Speaker 2:Ok. Solo va a imitarlo. ¿Pero qué te gustaría? ¿Te gustaría que pensara?
Speaker 8:Sí, sí me gustaría que pensara. Porque me daría un punto de vista diferente al mío. Un punto de vista de silicio, ¿no? No humano.
Speaker 4:De silicio. Me encanta que es técnicamente preciso.
Speaker 2:Todo transparente o decisiones detrás del telón.
Speaker 8:Todo transparente.
Speaker 2:Ok. Siempre. Aprender como humanos o superar a los humanos.
Speaker 8:Y extinguirlos. Yo creo que aprender como los humanos es imposible porque no van a aprender como nosotros. Superar a los humanos sí nos han superado en ciertas actividades.
Speaker 1:En la parte mecánica, en la parte de.
Speaker 8:En la parte de procesamiento, de gestión de grandes volúmenes de datos.
Speaker 1:Sí. Ahí se nos superan. Pero en la parte de la humanidad, no. No, no, no. ¿Código transparente o caja negra con qué?
Speaker 8:Cable transparente es. Ok.
Speaker 1:Nada de caja negra.
Speaker 8:No, no, no, no. Aunque es un reto, no es fácil. Porque algunas veces en los modelos de aprendizaje profundo, el nivel de complicación matemática al que se. las profundidades matemáticas a las que se llega es difícil de seguir para un humano.
Speaker 2:Para un humano, sí. Y finalmente, diseñar sistemas justos o corregir sistemas viejos?
Speaker 8:Yo diría que diseñar sistemas justos. El viejo.
Speaker 2:Inception.
Speaker 8:Sí, yo creo que ya el viejo ya está pasado.
Speaker 2:Se le puede retirar y se puede acostar a su casa. Okay, coge la paleta. Aquí tú vas a tener two options. Una es verdadero, que quiere decir que la frase que te voy a decir es pasando, es una reality, or it's algo que is. O futurista, which is falso, o algo que va a pasar in the future, in 100 years, in others, o puede ser que nunca pase, ojalá que nunca pase. Listo.
Speaker 8:Listo.
Speaker 2:Las reuniones de crisis serán moderadas por una IA empática.
Speaker 8:Verdadero. Empática en el sentido de que sea capaz. Importante, no empatía en el sentido que hablábamos antes, sino que sea capaz de analizar todos los puntos de vista que hay en una sala e intentar buscar. Es más, esto no es nuevo. Se han utilizado modelos de inteligencia artificial en la toma de decisiones tanto individuales como grupales, ¿sabes? En procesos de negociación incluso.
Speaker 2:Y así toma en cuenta.
Speaker 8:Ve los diferentes puntos de vista, entonces intenta buscar un camino intermedio, por ejemplo, en un proceso de negociación. Esto ya te digo antes. Es algo, por ejemplo, que se utilizó en los años 90 en Nueva York en negociaciones entre empresas y centrales sindicales.
Speaker 2:Oh, wow. Qué interesante. No sabía que viene desde allá. Sí, sí, sí. Existirá una IA que podrá predecir si un texto es honesto.
Speaker 8:Si un texto es honesto, sí, sí.
Speaker 2:Se multará a empresas por usar lenguaje vago o ambiguo en sus comunicaciones públicas.
Speaker 8:Yo creo que es futurista. No lo veo.
Speaker 2:La libertad de expresión.
Speaker 8:Sí, no lo veo.
Speaker 2:Consentimiento antes de ser analizado por un modelo. Si la persona debe dar su consentimiento para que un modelo pueda analizarlo. Una IA diseñará una religión y ganará seguidores humanos reales.
Speaker 3:Yo creo que no.
Speaker 2:Los contratos legales serán escritos primero por máquinas y después por humanos. Sí.
Speaker 8:Eso ya está pasando.
Speaker 2:Las emociones humanas serán clasificadas como datasets privados. Tú sabes que las máquinas que tienen dato biométrico, que miden el estrés, todo lo demás.
Speaker 8:Mira, te diría que eso sea verdad porque es un tema pendiente.
Speaker 2:Sí, y es un tema muy delicado.
Speaker 8:Es un tema muy pendiente. Porque lo que tú dices, o sea, el tema biométrico, el iris, las webs dactilares, la voz. Pero también está la parte de los sentimientos, de los puntos de vista. Yo creo que eso también debería protegerse. Esa es mi propiedad. Eso es mío. Y solo yo tengo derecho a eso.
Speaker 2:Sí, totalmente. Y porque te puede manipular. Y pueden también usarlo en tu contra. Habrá un diccionario universal de significado contextual por cultura, entrenado por la IA.
Speaker 8:Yo lo veo futurista porque las culturas, lo mismo que los lenguajes, van evolucionando con el tiempo.
Speaker 2:No son estáticos.
Speaker 8:Claro, no son estáticos. Y lo que a ti culturalmente o socialmente te puede parecer correcto a día de hoy, a lo mejor dentro de 50 años, no tiene cabida in the society. And viceversa. Entonces, no lo veo, o sea, it's demasiado volatil, demasiado dynamic, but it can be controlled by intelligence artificial.
Speaker 2:And this is in the manner that I think my others, what I think are my people. So the law cambry with the time. So, there's a sense that we gotta have a man of entertainment to the world since cultural and errors for this thing of false comprensibility, but it's always difficult to consider. Sí, si te apoyaste o no. Declarar.
Speaker 8:Sí, sí, sí.
Speaker 2:No hay vergüenza en hacerlo, pero diga la verdad. Sí, sí, claro, claro. Y finalmente, se creará una lengua nueva, optimizada para ser comprendida por humanos y máquinas.
Speaker 8:Futurista.
Speaker 4:El lingüista en ti dice que no.
Speaker 8:Futurista, porque ya se intentó con el esperanto.
Speaker 4:Ah, sí, sí.
Speaker 8:Ya se intentó con el esperanto. Eso, si quieres, nos da para otro sesión.
Speaker 2:Sí, pero no, cuéntanos un poco, porque esa historia me fascina.
Speaker 8:Nos puede dar para otra sesión, pero al final hay un estudio muy interesante, ya te digo. Si quieres, eso podemos tener otra charla otro día y es sobre lenguaje y cultura. Y se basa. Sabes que hay dos posturas. Hay dos posturas clave en el tema de la lingüística. Está por un lado la idea de Chomsky de que los lenguajes son perdón por la palabra, constructos, digamos, formales, en los que tú, en cierto modo, tu mente, dentro de tu mente, hay una estructura formal que es la que te ayuda a asimilar un lenguaje. Y luego está la postura de Everett, que es un lingüista. Este hombre trabajó, digamos, los de Chomsky, los de la parte de Chomsky, estos tienen sus análisis lingüísticos y sus experimentos en el laboratorio. Pero en el caso de Everett, él estuvo viviendo durante muchos años con los Pigan en Brasil, en la Amazonia. Y esta gente, por ejemplo, ellos no tenían no tenían números para contar. Para ellos no existe ni el pasado ni el futuro, solo existe el presente. No tienen formas verbales de pasado o de futuro. Entonces, al final, podemos construir, volviendo a tu pregunta, un idioma universal. No. No. El idioma es un reflejo de la cultura.
Speaker 2:Sí.
Speaker 8:Tal cual.
Speaker 2:Wow, ok.
Speaker 8:Tal cual.
Speaker 2:Cosa que uno cree que son universales, realmente no lo son.
Speaker 8:Para nada. Para nada. Si quieres, ya te digo, un día podemos hablar y sí, hay ciertos lenguajes, como por ejemplo descubrió Zip cuando él analizó el inglés, sabes las obras de Shakespeare, o textos chinos, sabes que él Si volvemos a quedar un día, traigo porque tengo documentos de CIP y tengo publicaciones en las que tú ves que a mano él iba calculando esos patrones, cómo se repetían. Pero hay otras lenguas que su estructura es totalmente diferente. No hay patrones, no hay números, no hay tiempos, no hay pasado, no hay futuro, solo hay presente. Incluso, por ejemplo, y este es el título de uno de sus libros de Everett: Don't sleep, there are snakes. Esta tribu, cuando te ibas a dormir, su manera de decir buenas noches era Don't sleep, there are snakes. O sea, no duermas, hay serpientes. Oh, wow. Y no era una era una advertencia, era simplemente si vas a dormir, recuerda.
Speaker 2:Oh, wow. Buenas noches. But sí, this is a riche of the humanity. And I think that these types of ideologies or many of the life are universal. No, no, no. It's the most common, but not necessarily all that.
Speaker 8:The language is a and termination. The language is a reflection of our culture, of our society, and it evolution before our culture, we are evolution. What are we capable of idiomas, those languages maternal, those other languages that we're incorporated? Sinceramente, at the end of the day, the neurocience. But there are things that we have in the cerebral.
Speaker 2:Okay, pregunta de cierre. Domingo. Si mañana te pidieran diseñar una regla universal for entrenar toda la inteligencia artificial del planeta. Una sola línea de código que nadie puede borrar.
Speaker 8:Con el famoso if que utilizamos en codificación, puedes hacer todo lo que quieras, if si no supone un riesgo para la humanidad.
Speaker 2:Proteger el ser humano. Gracias, Domingo, por ayudarnos a recorrer el filo entre lógica and inteligencia sintética anda. Hoy nos mostraremos que la inteligencia artificial no es magia ni amenaza, es espejo, and that lo que refleja depende tanto de cómo la programamos buttando ignorar. Because it trata solo de enseñar las máquinas a hablar, we trata de enseñarnos a nosotros a escuchar mejor, a entender lo no dicho andificar con conciencia.
Speaker 8:Muchas gracias.
Speaker 2:Gracias. De verdad que ha sido muy interesante hablar contigo.
Speaker:Gracias por escuchar a la Intangibilia, el podcast de Intangible Love. Hablando claro sobre propiedad intelectual. ¿Te gustó lo que hablamos hoy? Por favor, compártelo con tu red. ¿Quieres aprender más sobre la propiedad intelectual? Suscríbete ahora en tu reproductor de podcast favorito. Síguenos en Instagram, Facebook, LinkedIn y Twitter. Visita nuestro sitio web www.intangibilia.com. Derecho de autor Leticia Camineros 2020. Todos los derechos reservados. Este podcast se proporciona solo con fines informativos y no debes considerarte como un consejo u opinión legal.