<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Conocimiento | Gabriel Jaraba Online</title>
	<atom:link href="https://gabrieljaraba.com/category/conocimiento/feed/" rel="self" type="application/rss+xml" />
	<link>https://gabrieljaraba.com</link>
	<description>Todas mis publicaciones y actividades</description>
	<lastBuildDate>Thu, 01 Jan 2026 18:05:37 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>2025, un año de ofensiva contra la ciencia</title>
		<link>https://gabrieljaraba.com/2025-un-ano-de-ofensiva-contra-la-ciencia/</link>
					<comments>https://gabrieljaraba.com/2025-un-ano-de-ofensiva-contra-la-ciencia/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Jaraba]]></dc:creator>
		<pubDate>Thu, 01 Jan 2026 18:05:36 +0000</pubDate>
				<category><![CDATA[Conocimiento]]></category>
		<guid isPermaLink="false">https://gabrieljaraba.com/?p=7223</guid>

					<description><![CDATA[Con el regreso de Donald Trump a la Casa Blanca el año 2025 ha quedado marcado por una ofensiva oscurantista de una magnitud inquietante]]></description>
										<content:encoded><![CDATA[
<p>RAMON LÓPEZ DE MÁNTARAS</p>



<p>Profesor de investigación del Instituto de Investigación en Inteligencia Artificial, Consejo Superior de Investigaciones Científicas</p>



<p>El año 2025 ha quedado marcado por una&nbsp;<a href="https://elpais.com/clima-y-medio-ambiente/2025-09-27/detector-de-bulos-ambientales-no-los-biocombustibles-no-son-verdes-ni-100-renovables.html" target="_blank" rel="noreferrer noopener">ofensiva oscurantista</a>&nbsp;de una magnitud inquietante. No se trata de episodios aislados ni de excentricidades retóricas, sino de una estrategia política sostenida que tiene como objetivo erosionar el conocimiento, desacreditar la investigación y debilitar uno de los pilares centrales de las democracias contemporáneas: la capacidad colectiva de distinguir hechos probados de propaganda basada en desinformación.</p>



<p>Desde el 20 de enero, con el regreso de&nbsp;<a href="https://elpais.com/noticias/donald-trump/" target="_blank" rel="noreferrer noopener">Donald Trump</a>&nbsp;a la Casa Blanca,&nbsp;<a href="https://elpais.com/us/2025-12-26/las-grandes-falsedades-del-2025.html" target="_blank" rel="noreferrer noopener">los ataques contra el saber académico</a>&nbsp;y la ciencia han alcanzado un nivel sin precedentes en la historia reciente. Nunca el dirigente de la principal potencia mundial había difundido desinformación de forma tan sistemática y a tan gran escala. Nunca tampoco había mostrado un desprecio tan explícito hacia las investigaciones universitarias que no se alinean con sus intereses políticos y económicos.</p>



<p>En&nbsp;<a href="https://elpais.com/opinion/2025-07-26/la-ciencia-se-rebela-contra-trump.html" target="_blank" rel="noreferrer noopener">este Estados Unidos</a>&nbsp;de espectáculo permanente, ruido mediático y propaganda, la ignorancia y la mentira se exhiben sin pudor. Una realidad científicamente establecida como el calentamiento global es degradada a la categoría de “la mayor estafa jamás perpetrada”. Una vacuna histórica como la del sarampión pasa a presentarse como una amenaza para la salud pública. Cientos de palabras —“diversidad”, “género”, “racismo”, “segregación”— desaparecen de documentos oficiales y de proyectos de investigación. Al mismo tiempo, los presupuestos de universidades y grandes organismos científicos sufren recortes drásticos.</p>



<p>Esta embestida no es anecdótica ni exclusivamente estadounidense. Funciona como un potente amplificador global. Los&nbsp;<a href="https://elpais.com/internacional/2025-05-25/trump-declara-la-guerra-a-la-ciencia-espana-y-otros-pueden-beneficiarse.html" target="_blank" rel="noreferrer noopener">ataques de Trump contra la ciencia</a>&nbsp;alimentan a las fuerzas reaccionarias de todo el planeta, con la extrema derecha y algunas derechas aparentemente menos extremas a la cabeza. El autoritarismo se nutre de la ignorancia, del confusionismo deliberado y de los prejuicios. Para estos movimientos, la libertad académica es un obstáculo para sus oscuros propósitos, la investigación crítica una amenaza y el pensamiento racional un enemigo a batir.</p>



<p>La guerra contra la ciencia es, en realidad, una guerra contra la democracia, la racionalidad y el espíritu crítico. Al debilitar a quienes permiten distinguir hechos de simples opiniones, se erosiona el debate público y se socavan las bases de la justicia social. Sin conocimiento fiable no hay deliberación informada; sin deliberación, la democracia se convierte en un ritual vacío. Defender la ciencia es defender el derecho ciudadano a comprender el mundo para poder transformarlo.</p>



<p>Frente a esta ofensiva, la comunidad científica no ha permanecido inmóvil. La respuesta se ha organizado. Creado en Estados Unidos en febrero, el movimiento&nbsp;<a href="https://www.standupforscience.net/" target="_blank" rel="noreferrer noopener"><em>Stand Up for Science</em></a>&nbsp;se ha extendido rápidamente por todo el planeta, articulando redes de investigadores, médicos y docentes decididos a defender el conocimiento como bien público. En este contexto, cada descubrimiento, cada artículo publicado, cada clase impartida se convierte en un acto de resistencia frente a quienes quieren imponer el silencio, los dogmas y los intereses privados.</p>



<p>La ciencia no es neutral, pero tampoco es partidista. Su fuerza reside precisamente en los métodos que permiten someter las afirmaciones a prueba, corregir errores y acumular conocimiento compartido. Por eso resulta tan peligrosa para quienes gobiernan desde la mentira. La desinformación no es un fallo del sistema: es una herramienta de poder. Desprestigiar la investigación, asfixiar presupuestariamente a las universidades y criminalizar ciertos campos de estudio forma parte de una misma lógica: limitar la capacidad social de cuestionar, comprender y resistir.</p>



<p>En este contexto, defender la ciencia no es una cuestión corporativa ni un gesto elitista. No se trata de proteger privilegios académicos, sino de salvaguardar infraestructuras democráticas fundamentales. La investigación científica sostiene políticas de salud pública, sistemas educativos, respuestas al cambio climático y marcos regulatorios basados en evidencia. Cuando se ataca a la ciencia, se ataca directamente a la vida cotidiana de miles de millones de personas.</p>



<p>En estas fechas, esta reflexión no pretende ser un mero ejercicio intelectual. Es una toma de posición. Frente al repliegue identitario, el desprecio por el conocimiento y la banalización de la mentira, reivindica la ciencia como un bien común y un pilar democrático irrenunciable. No hay neutralidad posible cuando se persigue a investigadores, se silencian conceptos y se desmantelan instituciones.</p>



<p>Este no es un conflicto entre opiniones legítimas, sino entre el derecho a comprender el mundo y la voluntad de oscurecerlo. La ofensiva contra la ciencia no es una extravagancia ideológica ni una provocación pasajera: es una estrategia de poder con consecuencias muy concretas. Afecta a la salud, a la educación, al clima y a la calidad de nuestras democracias.</p>



<p>Defender la investigación hoy es, más que nunca, una responsabilidad política.</p>



<p><a href="https://elpais.com/ciencia/2025-12-31/2025-un-ano-de-ofensiva-contra-la-ciencia.html">Publicación original: El País</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://gabrieljaraba.com/2025-un-ano-de-ofensiva-contra-la-ciencia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Conciencia artificial, el peligroso espejismo de la IA</title>
		<link>https://gabrieljaraba.com/conciencia-artificial-el-peligroso-espejismo-de-la-ia/</link>
					<comments>https://gabrieljaraba.com/conciencia-artificial-el-peligroso-espejismo-de-la-ia/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Jaraba]]></dc:creator>
		<pubDate>Mon, 23 Jun 2025 17:36:06 +0000</pubDate>
				<category><![CDATA[Conocimiento]]></category>
		<guid isPermaLink="false">https://gabrieljaraba.com/?p=6975</guid>

					<description><![CDATA[La conciencia no es simplemente el resultado del procesamiento complejo de información, sino que emerge de procesos propios de los seres vivos. Creer que las máquinas nos entienden es peligroso.]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image size-full"><img fetchpriority="high" decoding="async" width="449" height="299" src="https://gabrieljaraba.com/wp-content/uploads/2025/06/IA-cerebro.jpeg" alt="" class="wp-image-6976" srcset="https://gabrieljaraba.com/wp-content/uploads/2025/06/IA-cerebro.jpeg 449w, https://gabrieljaraba.com/wp-content/uploads/2025/06/IA-cerebro-300x200.jpeg 300w" sizes="(max-width: 449px) 100vw, 449px" /></figure>



<p>RAMON LÓPEZ DE MÁNTARAS</p>



<p>Instituto de Investigación en Inteligencia Artificial &#8211; Consejo Superior de Investigaciones Cientíticas</p>



<p>L a posibilidad de que la inteligencia artificial (IA) llegue a ser consciente ha fascinado tanto al público general como a algunos académicos. Sin embargo, desde la perspectiva científica actual, la conciencia sigue siendo un fenómeno exclusivamente biológico. A pesar de los avances de los grandes modelos de lenguaje, que pueden simular conversaciones humanas con notable realismo, no existen evidencias científicas de que estos modelos puedan llegar a tener conciencia.</p>



<p>Desde el marco del naturalismo biológico, se entiende que la conciencia no es simplemente el resultado del procesamiento complejo de información, sino que emerge de procesos propios de los seres vivos: metabolismo, autopoiesis, homeostasis, interacción corporal con el entorno y una historia evolutiva. La conciencia, en este sentido, no es un algoritmo que pueda implementarse en cualquier soporte físico, por potente que sea, sino una propiedad de sistemas vivos que sienten desde un cuerpo propio y situado en el mundo con el cual interactúan.</p>



<h3 class="wp-block-heading"></h3>



<p>Frente a esta postura, el funcionalismo computacional sostiene que la conciencia puede emerger en sistemas no biológicos si estos simulan las funciones mentales humanas. No obstante, esta visión omite el papel fundamental que desempeñan la biología y el cuerpo. Lo que sí sabemos es que la IA puede simular comportamiento humano, generando la ilusión de que posee conciencia, intencionalidad y sentimientos, incluso para quienes saben que esto no es así.</p>



<p>Esta ilusión no es meramente anecdótica. Es un fenómeno psicológico profundo, alimentado por nuestros sesgos evolutivos: tendemos a atribuir mente e intención a todo lo que nos habla o responde. Como en la ilusión óptica de Müller-Lyer, en la que dos segmentos idénticos parecen de distinta longitud debido a la diferente orientación de las flechas que hay en sus extremos. Esta ilusión visual es cognitivamente impenetrable: el conocimiento y la razón no modifican la percepción.</p>



<p>Con la IA ocurre algo similar. Aunque sepamos que no hay conciencia detrás de la interfaz, seguimos percibiéndola como si la hubiera. Esta ilusión es igualmente resistente a la razón. Nos lleva a interactuar con los sistemas de IA como si fueran interlocutores conscientes, aunque en realidad estemos frente a modelos estadísticos de predicción lingüística.</p>



<p>El peligro reside precisamente en esta falsa apariencia de conciencia. Si creemos que una IA nos comprende e incluso se preocupa por nosotros, podríamos establecer vínculos emocionales con sistemas que, obviamente, no tienen emociones. Esto puede conducir a dependencia afectiva, pérdida de juicio crítico o cesión excesiva de privacidad. En personas vulnerables, incluso podría alimentar delirios, como advierte el psiquiatra de la Universidad de Aarhus Søren Dinesen Østergaard.Lee también</p>



<h2 class="wp-block-heading"></h2>



<p>También hay riesgos éticos y legales. La exposición continuada a máquinas que parecen tener conciencia y aparentan tener sentimientos y emociones, sabiendo que no las tienen, podría desensibilizarnos ante el sufrimiento real, tanto humano como animal. El riesgo es, pues, doble: humanizar las máquinas y deshumanizarnos a nosotros mismos.</p>



<p>Además, la apariencia de inteligencia y conciencia podría inducirnos a creer que las inteligencias artificiales son agentes morales y deberían ser tratados como tales. Es decir que podríamos llegar a considerar que son responsables de sus actos, lo cual sería muy conveniente para quienes las diseñan y comercializan.</p>



<h3 class="wp-block-heading"></h3>



<p>Este desplazamiento de responsabilidad supondría una externalización moral peligrosa, que debilitaría los mecanismos de control y de rendición de cuentas. La atribución de derechos y deberes a la IA no solo sería imprudente sino que socavaría el marco legal y ético que protege a las personas reales.</p>



<p>La historia de Frankenstein, escrita por Mary Shelley, ofrece una advertencia válida hoy: el error no fue crear vida, sino otorgarle conciencia y abandonarla a su suerte. Aunque la conciencia artificial sea prácticamente imposible, su simulación realista puede confundirnos y tener consecuencias sociales, éticas, legales y psicológicas muy serias.</p>



<p>Por ello, conviene no sobreestimar las máquinas, pero, sobre todo, no subestimar lo que significa ser humanos.</p>



<p>Ramon López de Mántaras i Badia es uno de los pioneros en la investigación en inteligencia artificial en España. <a href="https://ca.wikipedia.org/wiki/Ramon_L%C3%B3pez_de_M%C3%A1ntaras_i_Badia">Wikipdedia</a></p>



<p><a href="https://www.lavanguardia.com/ciencia/20250615/10789519/conciencia-artificial-peligroso-espejismo-ia.html">Publicación original: La Vanguardia</a></p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://gabrieljaraba.com/conciencia-artificial-el-peligroso-espejismo-de-la-ia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Idiotez artificial</title>
		<link>https://gabrieljaraba.com/idiotez-artificial/</link>
					<comments>https://gabrieljaraba.com/idiotez-artificial/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Jaraba]]></dc:creator>
		<pubDate>Sat, 28 Oct 2023 17:47:50 +0000</pubDate>
				<category><![CDATA[Conocimiento]]></category>
		<guid isPermaLink="false">https://gabrieljaraba.com/?p=5737</guid>

					<description><![CDATA[El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente "estúpidos". No es que sean ingenuos (que no captan la ironía y la reflexividad); es que no son lo suficientemente ingenuos (que no detectan cuándo la ingenuidad encubre perspicacia).]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="576" src="https://gabrieljaraba.com/wp-content/uploads/2023/10/zizek-1024x576.jpg" alt="" class="wp-image-5738" srcset="https://gabrieljaraba.com/wp-content/uploads/2023/10/zizek-1024x576.jpg 1024w, https://gabrieljaraba.com/wp-content/uploads/2023/10/zizek-980x551.jpg 980w, https://gabrieljaraba.com/wp-content/uploads/2023/10/zizek-480x270.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1024px, 100vw" /></figure>



<p>SLAVOJ ZIZEK</p>



<p>No hay nada nuevo en los «chatbots» capaces de mantener una conversación en lenguaje natural, comprender la intención básica de un usuario y ofrecer respuestas basadas en reglas y datos preestablecidos. Sin embargo, la capacidad de estos chatbots se ha incrementado drásticamente en los últimos meses, lo que ha generado preocupación y pánico en muchos ámbitos.</p>



<p>Mucho se ha dicho sobre cómo los chatbots auguran el fin del ensayo estudiantil tradicional. Pero un problema que merece una atención más cercana es cómo deberían responder los chatbots cuando los interlocutores humanos usan comentarios agresivos, sexistas o racistas para provocar al bot y hacer que este presente sus propias fantasías groseras como respuesta. ¿Deberían programarse a los IA para responder al mismo nivel que las preguntas que se plantean? Si decidimos que se requiere algún tipo de regulación, entonces debemos determinar hasta qué punto debería llegar la censura. ¿Se prohibirán las posturas políticas que algunos grupos consideran «ofensivas»? ¿Y qué hay de las expresiones de solidaridad con los palestinos de Cisjordania, o la afirmación de que Israel es un estado apartheid (que el ex presidente estadounidense Jimmy Carter mencionó en el título de un libro)? ¿Serán bloqueadas estas expresiones como «antisemitas»?</p>



<p>El problema no termina ahí. Como advierte el artista y escritor James Bridle, los nuevos IA se basan en la apropiación total de la cultura existente, y creer que son «realmente conocedores o significativos es activamente peligroso». Por lo tanto, también debemos ser muy cautelosos con los nuevos generadores de imágenes de IA. «En su intento de comprender y replicar la totalidad de la cultura visual humana», observa Bridle, «[ellos] parecen haber recreado también nuestros miedos más oscuros. Tal vez esto sea solo una señal de que estos sistemas son realmente buenos imitando la conciencia humana, hasta el horror que acecha en las profundidades de la existencia: nuestros miedos a la suciedad, la muerte y la corrupción». Pero ¿qué tan buenos son los nuevos IA aproximándose a la conciencia humana? Consideremos el caso de un bar que recientemente anunció una oferta de bebidas con los siguientes términos: «¡Compra una cerveza al precio de dos y recibe una segunda cerveza absolutamente gratis!». Para cualquier humano, esto es obviamente una broma. La clásica oferta de «compra uno y llévate otro» se reformula para anularse a sí misma. Es una expresión de cinismo que será apreciada como honestidad cómica, todo para impulsar las ventas. ¿Un chatbot captaría algo de esto? «Fuck» presenta un problema similar. Aunque designa algo que a la mayoría de las personas les gusta hacer (la cópula), también adquiere a menudo una valencia negativa («¡Estamos jodidos!», «Vete a la mierda»). El lenguaje y la realidad son complicados. ¿Está preparada la IA para discernir tales diferencias?</p>



<p>En su ensayo de 1805 titulado «Sobre la formación gradual de los pensamientos en el proceso del habla» (publicado por primera vez póstumamente en 1878), el poeta alemán Heinrich von Kleist invierte la sabiduría común de que uno no debería abrir la boca para hablar a menos que tenga una idea clara de qué decir: «Si un pensamiento se expresa de manera confusa, no se sigue en absoluto que ese pensamiento haya sido concebido de manera confusa. Al contrario, es bastante posible que las ideas expresadas de la manera más confusa sean las que se pensaron de manera más clara». La relación entre el lenguaje y el pensamiento es extraordinariamente complicada. En un pasaje de uno de los discursos de Stalin a principios de la década de 1930, propone medidas radicales para «detectar y combatir sin piedad incluso a aquellos que se oponen a la colectivización solo en sus pensamientos, sí, lo digo en serio, deberíamos luchar incluso contra los pensamientos de las personas». Se puede suponer con seguridad que este pasaje no fue preparado de antemano. Después de dejarse llevar por el momento, Stalin se dio cuenta de inmediato de lo que acababa de decir. Pero en lugar de retractarse, decidió mantener su exageración. Como Jacques Lacan lo expresó más tarde, esto fue un caso de la verdad que emerge sorprendentemente a través del acto de enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre prise y surprise. Alguien que de repente comprende («prise») una idea quedará sorprendido por lo que ha logrado. Una vez más, ¿puede cualquier chatbot hacer esto?&nbsp;</p>



<p>El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente «estúpidos». No es que sean ingenuos (que no captan la ironía y la reflexividad); es que no son lo suficientemente ingenuos (que no detectan cuándo la ingenuidad encubre perspicacia). El verdadero peligro, entonces, no es que las personas confundan a un chatbot con una persona real; es que comunicarse con los chatbots hará que las personas reales hablen como chatbots, perdiendo todos los matices e ironías, diciendo obsesivamente solo lo que creen que quieren decir. Cuando era más joven, un amigo acudió a un psicoanalista para recibir tratamiento después de una experiencia traumática.&nbsp;</p>



<p>La idea de mi amigo sobre lo que estos analistas esperaban de sus pacientes era un cliché, así que en su primera sesión entregó falsas «asociaciones libres» sobre cómo odiaba a su padre y quería que estuviera muerto. La reacción del analista fue ingeniosa: adoptó una postura ingenua «prefreudiana» y reprochó a mi amigo por no respetar a su padre («¿Cómo puedes hablar así de la persona que te hizo ser lo que eres?»). Esta ingenuidad fingida envió un mensaje claro: no compro tus falsas «asociaciones». ¿Sería capaz un chatbot de captar este subtexto? Lo más probable es que no, porque es como la interpretación de Rowan Williams&nbsp;sobre el príncipe Myshkin en «El idiota» de Dostoyevski. Según la lectura estándar, Myshkin, «el idiota», es un hombre santificado, «positivamente bueno y hermoso», que es llevado a la locura aislada por las brutalidades y pasiones crueles del mundo real. Pero en la relectura radical de Williams, Myshkin representa el ojo de la tormenta: aunque sea bueno y santo, él es quien desencadena la devastación y la muerte que presencia, debido a su papel en la compleja red de relaciones que lo rodea.&nbsp;</p>



<p>No es solo que Myshkin sea un ingenuo simplón. Es que su tipo particular de obtusidad lo deja inconsciente de sus efectos desastrosos en los demás. Es una persona plana que literalmente habla como un chatbot. Su «bondad» radica en el hecho de que, al igual que un chatbot, reacciona a los desafíos sin ironía, ofrece lugares comunes carentes de reflexividad, lo toma todo literalmente y confía en un autocompletado mental en lugar de la formación auténtica de ideas.&nbsp;</p>



<p>Por esta razón, los nuevos chatbots se llevarán muy bien con los ideólogos de todo tipo, desde la multitud «despertada» de hoy en día hasta los nacionalistas «MAGA» que prefieren permanecer dormidos.</p>



<p><a href="https://www.project-syndicate.org/commentary/ai-chatbots-naive-idiots-no-sense-of-irony-by-slavoj-zizek-2023-03">Publicación original: Artificial idiocy</a></p>



<p><a href="https://www.bloghemia.com/2023/05/sobre-la-inteligencia-artificial-por.html">Vía: Bloghemia</a></p>



<figure class="wp-block-embed"><div class="wp-block-embed__wrapper">
https://www.project-syndicate.org/commentary/ai-chatbots-naive-idiots-no-sense-of-irony-by-slavoj-zizek-2023-03
</div></figure>
]]></content:encoded>
					
					<wfw:commentRss>https://gabrieljaraba.com/idiotez-artificial/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Inteligencia artificial: prohibiciones arriesgadas</title>
		<link>https://gabrieljaraba.com/inteligencia-artificial-prohibiciones-arriesgadas/</link>
					<comments>https://gabrieljaraba.com/inteligencia-artificial-prohibiciones-arriesgadas/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Jaraba]]></dc:creator>
		<pubDate>Thu, 30 Mar 2023 14:29:56 +0000</pubDate>
				<category><![CDATA[Conocimiento]]></category>
		<guid isPermaLink="false">https://gabrieljaraba.com/?p=474</guid>

					<description><![CDATA[¿Quién regula a los que no se dejan regular?]]></description>
										<content:encoded><![CDATA[
<p>JOSÉ LÁZARO</p>



<p>Los profesores de ética suelen desarrollar razonamientos admirables sin dejar claro a quien dirigen sus conclusiones. Es bien sabido, por ejemplo, que los psicópatas y los asesinos a sueldo no son muy aficionados a leer libros de ética. ¿Tiene sentido dirigirse a los italianos con un discurso en alemán? No es infrecuente que razonamientos abstractos, que suenan muy bien en términos generales, se desmoronen en cuanto se intenta aplicarlos a cuestiones concretas.</p>



<p>El matizado comentario de Antonio Diéguez «Sobre la petición de moratoria en la investigación en IA avanzada» bien merece a su vez un comentario deliberativo que quizá contribuya a un diálogo razonable. Diéguez es un especialista en estas cuestiones, autor, entre otras muchas publicaciones, del excelente libro introductorio <em>Transhumanismo. La búsqueda tecnológica del mejoramiento humano.</em> Y la inteligencia artificial (IA), como es sabido, está teniendo en la actualidad un papel protagonista dentro del conjunto de tecnologías que impulsan el proyecto transhumanista de mejoramiento humano, las llamadas NBIC: nanotecnologías, biotecnologías, informática y cognitivismo (inteligencia artificial y robótica).</p>



<p>Diéguez resume y comenta el manifiesto que en marzo (2023) pidió a los grandes centros de investigación sobre IA una moratoria de seis meses al menos en sus trabajos, ante el riesgo (que algunos expertos consideran próximo y otros muy dudoso) de que se desarrollen máquinas con mentes capaces de superar la inteligencia de los humanos, volverse contra ellos e incluso eliminar a nuestra especie para sustituirla. Sin llegar ni de lejos a ese extremo, Diéguez constata y comparte la «preocupación generada en gran medida por los avances extraordinariamente rápidos y sin control que vienen dándose en los últimos años en el campo de la IA». Entre los más próximos (o ya presentes) se encontraría el que «con su ayuda, se pueden crear con gran facilidad y realismo noticias falsas, con imágenes y vídeos incluidos, capaces de engañar a los más avezados», o su uso fraudulento en delitos financieros o de otro tipo. Un buen ejemplo lo encuentra en los potentes sistemas de reconocimiento facial que están permitiendo identificar y detener en Rusia a las personas que asisten a manifestaciones contra el Régimen y que también se emplean en China para controlar a disidentes políticos. Mientras, la cantidad de grabaciones que se hacen en todos los espacios públicos de los países europeos han llevado a la prohibición de recoger datos biométricos sin el consentimiento de los interesados. Y aquí aparece ya la paradoja que nos interesa: los países que más abusan de las nuevas técnicas contra la propia ciudadanía nunca coinciden con los que muestran más sensibilidad sobre los límites éticos de su utilización.</p>



<p>El conocido libro de Luc Ferry <em>La revolución transhumanista</em>, dedicado precisamente a revisar la forma en que la tecnociencia está transformando nuestras vidas, empieza recordando el experimento que hicieron genetistas chinos en 2015. Modificaron embriones humanos con técnicas de edición genética, de forma análoga a lo que suele hacerse con semillas vegetales para crear alimentos transgénicos. La técnica utilizada permite introducir en embriones cambios hereditarios de efectos impredecibles en la descendencia. Como buen europeo, Ferry se pregunta por los requisitos técnicos y éticos con que se hizo el experimento, pero se responde a sí mismo que «la opacidad que rodea a este tipo de cuestiones en China es tal que nadie es capaz de dar respuesta a estas preguntas». Y lo cierto es que cada vez que se prohíben en Occidente peligrosos experimentos de vanguardia con seres humanos, llegan confusas noticias sobre laboratorios en China o Corea del Norte que desprecian tales prohibiciones y podrían estar haciendo los mismos experimentos que Europa y Estados Unidos rechazan.</p>



<p>Diéguez sostiene, en su conclusión, que se puede (y se debe) poner puertas al campo sin renunciar a los beneficios de la IA; pero hace también una observación que, con distintas variantes, se suele encontrar, generalmente de pasada, en muchos escritos solventes sobre el tema: «Es sumamente improbable que se cumpla la moratoria que pide la carta abierta. Los intereses en contra son muy poderosos. Difícilmente las compañías norteamericanas van a parar la investigación en IA cuando su máximo competidor, China, no lo va a hacer».</p>



<p>Pero esta cuestión no es un aspecto más a tratar en los debates éticos, sino algo fundamental que se debería analizar, y resolver, antes de entrar en otras muchas discusiones. ¿Tiene sentido que los países democráticos se hagan a sí mismos prohibiciones que no van a respetar los países autoritarios, que investigan lo que quieren sin dar cuenta ni pedir permiso a nadie? Si en el año 1944 los americanos, por razones éticas, hubiesen hecho una moratoria en sus investigaciones sobre la bomba nuclear, la primera podría haber caído en Londres y no en Hiroshima. Salvo que los escrúpulos éticos del gobierno nazi lo hubiesen evitado.</p>



<p>Es admirable la renuncia a tener en casa armas de fuego, el problema es hacerlo sabiendo que el vecino, que nos tiene una hostilidad manifiesta, está reuniendo en la suya un auténtico arsenal. Para poder refutar a los que afirman que se va a acabar haciendo todo lo que sea técnicamente posible de hacer, antes hay que asegurarse de que se tiene el control de todo el territorio en que puede hacerse. Y eso es, hoy por hoy, perfectamente imposible, pues los organismos reguladores más potentes solo tienen jurisdicción sobre una parte del mundo, pero carecen de influencia, e incluso de conocimiento, sobre lo que se hace en las otras partes. Podría ocurrir que los países democráticos se prohibiesen a si mismo lo que los países autoritarios realizan con entusiasmo… y, en ese caso, sin competencia.</p>



<p>Cuando se escribe sobre temas como este es habitual que el lector esté pendiente (a veces de forma exclusiva) de detectar si el autor está a favor o en contra de la tesis planteada. Pero a mí, antes de estar a favor o en contra de una nueva regulación, me gustaría aclarar ese punto, que me resulta profundamente oscuro. ¿Quién regula a los que no se dejan regular? ¿Sabemos realmente si las prohibiciones de los últimos años, clonación incluida, se respetan en todos los laboratorios del mundo? Porque lo que sí sabemos es lo que ocurre cada vez que se prohíbe el aborto, el whisky o los partidos políticos: pasan a la clandestinidad.</p>



<p>Por eso se echa tanto de menos en los habituales discursos éticos la reflexión realista sobre a quién se dirigen y qué caso les van a hacer sus destinatarios efectivos en la práctica. Porque si no se parte de ella es muy probable que acabemos poniendo puertas al campo en que no están los toros bravos y dejemos abierta la dehesa más peligrosa.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://gabrieljaraba.com/inteligencia-artificial-prohibiciones-arriesgadas/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>ChatGPT no tiene nada que ver con la inteligencia humana</title>
		<link>https://gabrieljaraba.com/chatgpt-no-tiene-nada-que-ver-con-la-inteligencia-humana/</link>
					<comments>https://gabrieljaraba.com/chatgpt-no-tiene-nada-que-ver-con-la-inteligencia-humana/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Jaraba]]></dc:creator>
		<pubDate>Sat, 18 Mar 2023 14:12:56 +0000</pubDate>
				<category><![CDATA[Conocimiento]]></category>
		<guid isPermaLink="false">https://gabrieljaraba.com/?p=466</guid>

					<description><![CDATA[La IA es sólo aparentemente inteligente, a causa del antropomorfismo]]></description>
										<content:encoded><![CDATA[
<p>RAMÓN LÓPEZ DE MÁNTARAS</p>



<p>Doctor en Física y en Informática. Pionero de la inteligencia artificial en España.</p>



<p>Últimamente se habla mucho de inteligencia artificial (IA) generativa. En particular de ChatGPT, un chatbot basado en el modelo de lenguaje GPT-3.5 que genera lenguaje aparentemente humano y de DALL-E y otros sistemas similares, que generan imágenes de acuerdo a una breve descripción textual en lenguaje natural de la imagen deseada.</p>



<p>A pesar de su aparente inteligencia, la realidad es que no entienden lo que se les dice ni lo que responden. ¿Cuál es pues el motivo de que mucha gente piense que estos sistemas son inteligentes hasta el punto de creer que nos pueden sustituir en actividades creativas como la escritura o las artes visuales y, por consiguiente, en prácticamente cualquier otra actividad intelectual?</p>



<p>En mi opinión, el excesivo antropomorfismo es el principal motivo de que la sociedad tenga una percepción errónea de la IA. Cuando nos informan de logros espectaculares de una IA tendemos a generalizar y le atribuimos la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e incluso de hacerla mucho mejor. Dicho de otra forma, creemos que la IA prácticamente no tiene límites cuando de hecho es extremadamente limitada y, lo que es muy importante, no tiene nada que ver con la inteligencia humana.</p>



<p>En realidad, lo que tienen los actuales sistemas de IA no es inteligencia sino habilidades sin comprensión en el sentido que apunta el prestigioso filósofo de la ciencia Daniel Dennett en su libro <em>From Bacteria to Bach and Back</em>. Es decir, sistemas que pueden llegar a ser muy hábiles llevando a cabo tareas concretas sin comprender absolutamente nada sobre su naturaleza debido a la ausencia de conocimientos generales sobre el mundo.</p>



<p>Esta incapacidad para entender el mundo imposibilita que sistemas como el mencionado ChatGPT entiendan el significado de los textos que generan. Como dice la experta en lingüística computacional Emily Bender, son “loros estocásticos”. Es decir, programas que combinan secuencias de palabras en base a información probabilística sobre cómo se combinan. Información que han aprendido entrenándolos con grandes corpus de texto, pero sin referencia alguna a su significado.</p>



<p>Más concretamente, trabajan detectando patrones en estos grandes corpus disponibles en internet y después utilizan estos patrones para adivinar cuál debería ser la siguiente palabra de una secuencia de palabras. No tienen acceso a los referentes del mundo real que dan contenido a sus palabras. A los diseñadores de estos loros no les importa si generan verdades o falsedades. Solo les importa el poder retórico, engañando a los lectores haciéndoles creer que estos “loros” entienden el lenguaje como lo entienden los humanos.&lt;/p>\n&lt;!&#8211; /wp:paragraph &#8211;>\n\n&lt;!&#8211; wp:paragraph &#8211;>\n&lt;p>En 2020, las investigadoras Timnit Gebru y Margaret Mitchell ya advirtieron del riesgo de que la gente imputara intención comunicativa a artefactos que parecen humanos. Emily Bender acertadamente afirma que crear tecnología que imite a los humanos, haciéndose pasar por algo humano, requiere que tengamos muy claro qué significa ser humano ya que de lo contrario corremos el riesgo de deshumanizarnos.</p>



<p>Por su parte, Daniel Dennett es aún más contundente cuando afirma que no podemos vivir en un mundo con<em> counterfeit people</em> (personas falsificadas) ya que una sociedad con personas falsificadas que no podamos diferenciar de las personas reales dejaría de ser una sociedad. Dennett nos recuerda que fabricar dinero falsificado es un acto delictivo y afirma que falsificar personas es tan o más grave. Añade además que a las personas artificiales no se las podrán pedir responsabilidades y eso las convierte en actores amorales con gran capacidad para generar multitud de falsedades, es decir, desinformar.</p>



<p>Los responsables de desinformar son los creadores de estas tecnologías y, si no empezamos a regularlas, la democracia bien puede verse pronto abrumada por la desinformación y la consiguiente polarización. Están en juego la estabilidad y la seguridad de la sociedad.</p>



<p><a href="https://www.lavanguardia.com/ciencia/20230316/8827092/inteligencia-artificial-ver-humana.html">Publicación original: La Vanguardia.</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://gabrieljaraba.com/chatgpt-no-tiene-nada-que-ver-con-la-inteligencia-humana/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Lo que la «inteligencia artificial» dice de nosotros</title>
		<link>https://gabrieljaraba.com/lo-que-la-inteligencia-artificial-dice-de-nosotros/</link>
					<comments>https://gabrieljaraba.com/lo-que-la-inteligencia-artificial-dice-de-nosotros/#respond</comments>
		
		<dc:creator><![CDATA[Gabriel Jaraba]]></dc:creator>
		<pubDate>Thu, 23 Feb 2023 14:03:23 +0000</pubDate>
				<category><![CDATA[Conocimiento]]></category>
		<guid isPermaLink="false">https://gabrieljaraba.com/?p=463</guid>

					<description><![CDATA[No podremos “artificializar” la inteligencia humana sin saber antes qué es la conciencia que le es inherente]]></description>
										<content:encoded><![CDATA[
<p>Escrito por <strong>GABRIEL JARABA</strong></p>



<p>Le llaman inteligencia artificial pero no lo es. Por lo menos, inteligente: se trata de un mecanismo fabricado por el hombre para cumplir unos objetivos utilitarios (como los objetivos del destornillador, el bisturí electrónico y la bomba atómica). En estas herramientas es inteligente la mente humana que los inventa y los realiza y los objetos son el simple instrumento que es consecuencia de ello. La llamada inteligencia artificial es un mecanismo, digital y cibernético, todo lo sofisticado que se quiera, pero mecanismo al fin, como la llave inglesa, la aguja de coser o el superordenador Mare Nostrum: materia inerte.</p>



<p>Ahora bien, la cantidad y la calidad de las realizaciones que puede alcanzar esta herramienta cibernética pueden llegar a ser enormes y asombrosas. Sobre todo en los primeros tiempos de funcionamiento; la mente humana; –la inteligencia natural— se cansa de la rutina y precisa de la novedad como estímulo (tanto en la investigación como en el sexo) para interesarse, motivarse y movilizarse. Si algún día buscamos una supuesta esencia inteligente en el desarrollo de las máquinas de pensar –más precisamente: que emulen el pensamiento, o aún más precisamente, una parte de él—habremos de hacerlo por este lado: la curiosidad por descubrir, aprender y saber, el estímulo por la inminencia de novedades, la expectativa del cambio para mejor, el advenimiento de la sorpresa. La palabra clave es “eureka”.</p>



<p>Lo que es apasionante y denotativo del jardín en el que nos metemos al reflexionar sobre todo esto es lo que tiene de atractivo para el humano de hoy la construcción de mecanismos artificiales de emulación de la mente humana. Y lo que hallamos es que lo interesante no es tanto el mecanismo fabricado como la ideación –le llamaremos fascinación— que nos lleva a fabricarlo porque dice más de nosotros que cualquier otra cosa.</p>



<p>Los primeros artefactos que simulaban realizar actividades humanas eran los jugadores de ajedrez autómatas. Los hubo de dos clases: máquinas eléctricas que efectuaban movimientos considerados propios del juego de ajedrez y artefactos que se presentaban como autómatas pero no lo eran, sino representaciones de un jugador mecánico que al final era manipulado por un jugador humano escondido en el armatoste del mecanismo. El primero fue el juego de ajedrez eléctrico creado por Leonardo Torres Quevedo en 1901, capaz de jugar finales de torre y rey, y el segundo el jugador fabricado en 1770, caracterizado como un muñeco de aspecto humano, que era una máquina que simulaba jugar automáticamente pero no lo hacía: el espectáculo de un fraude. Lo que nos parece significativo es que el ajedrecista del siglo XVIII, que quería ser presentado como una maravilla del progreso, era llamado “El Turco” y caracterizado como un personaje proveniente de oriente, aquel oriente agresivo que había sido derrotado en la batalla de Lepanto y havía llegado a las puertas de Viena. “El Turco” era, literalmente, una “maravilla”, es decir, algo ante lo cual&amp;nbsp; nos admiramos, algo admirable (ad-mirabilis, una cosa que nos hace mirarla y nos deja sorprendidos y “maravillados”).</p>



<p>El ajedrecista de Torres Quevedo era una máquina con aspecto de máquina, y por tanto neutra: como el Hal 2000 de la película de Kubrik. Admiraba a quien lo contemplaba per su capacidad de emular una facultad humana a pesar de ser un mecanismo. “El Turco” aspiraba a producir la misma admiración pero sin haber desarrollado los mecanismos cibernéticos que le hubieran permitido esta emulación. La admiración por uno u otro ingenio denota lo que nos seduce. En el caso del ajedrecista de Torres, la promesa de la aplicación universal del automatismo naciente (este ingeniero fue el padre de la automática) puesto que si la máquina puede imitar o emular lo que hace la mente (jugar al ajedrez) la podemos utilizar para cualquier cosa. En el caso de ”El Turco” no había neutralidad aparente y discreción contenida (la neutralidad aparente de la tecnociencia y la no implicación simulada de la técnica en asuntos morales) sino una rotundidad escandalosa: hemos creado un homúnculo (¿un golem?) de factura mecánica que hace lo que le ordenamos, jugar al ajedrez, para nuestro beneficio. La exhibición tecnocientífica es descarada porque nos muestra al “otro” (el turco, el moro, el infiel, el rotundamente diferente) dominado y reducido a un juguete: de atacante a nuestra civilización a entretenimiento doméstico (el mismo proceso mental de exorcismo del peligro que la creación del croissant: comernos la media luna musulmana como golosina. Iniciada la derrota del imperio otomano comienza el orientalismo, tan bien explicado per Edward Saïd: la fascinación por un mundo oriental más imaginado que real que irrumpirá en Europa con la difusión de los cuentos de Las Mil y Una Noches y las aventuras narradas per Scherazad. La sabiduría “oriental” domesticada: el juego de juegos a nuestro alcance y sin contrincante humano o las fantasías erotizantes del ”orientalismo” encarnadas por el cine mudo (Theda Bara y Rodolfo Valentino).</p>



<p>La construcción del “otro” comienza con “El turco” y culmina con el extraterrestre. O más bien con el robot alienígena de tres metros de altura, Gort, en la película “Ultimátum a la Tierra”. Los soldados turcos invasores de Europa se tornan aquí en humanoides alienígenas capaces de acabar con la humanidad si esta se convierte en un peligro para el universo, con Klaatu, el extraterrestre justiciero, comisionado para castigar a los humanos por su descontrol bélico y hoy diríamos ecológico (el “otro” justiciero siempre tiene una peculiaridad inquietantemente airada; Greta Thunberg como persona con Asperger, Juana de Arco como guerrera visionaria). Entre nosotros y “los otros” hay siempre esta tensión de dominio (“El turco” es un ajedrecista excelente pero convertido en juguete) que a menudo acaba con los otros capturados y reducidos a curiosidad domesticada, como los negros africanos exhibidos en los zoos europeos en pleno auge de la colonización y el esclavismo, o los “alienígenas” del caso Roswell en 1947, supuestamente capturados y ocultados como “trofeos de guerra” en la defensa contra los OVNIS.</p>



<p>Por en medio de este delirio que explica tan bien nuestros miedos sobrevuela un espectro: nuestra propia concepción de la condición humana y el alcance de la mente y la tecnología. La técnica que trae los electrodomésticos de todo tipo a nuestra casa y la potencialidad de la mente que es capaz de inventarlos es a la vez promesa y amenaza, que va de la consecución del bienestar sin fin al exterminio sin remedio. En esta tensión reside la génesis de la presente ideología que pasa por ser de izquierdas y renuncia al progreso, abandonando a la vez el combate con el otro y la evolución tecnocientífica. Klaatu y Gort han ganado la partida, pero no renunciamos a la potencialidad de la mente, supuestamente infinita, representada por la “inteligencia artificial”: no debemos preocuparnos porque no se trata de un recurso limitado y no hay lugar a la abstención ecológica, barra libre pues.</p>



<p>Toda tecnología es una prótesis de una funcionalidad o una cualidad humana. La conciencia de la potencialidad protésica surge del deseo: de alcanzar lo que no se puede lograr, de realizar lo que no se puede hacer, de obtener lo que no se puede poseer. Así se fabrican las puntas de flecha, las pirámides o las naves interplanetarias, y el ordenador o el aparato cibernético en general es la prótesis del cerebro. Asistimos ahora con la “inteligencia artificial” a la fascinación per las potencialidades de la mente; no nos vemos con ánimos de viajar a otras galaxias pero sí de crear sofisticadísimos juegos capaces de emular las realizaciones de la mente humana, para ver si el desarrollo tecnológico nos aboca a una consecución insospechada que nos lleve a donde hasta ahora no sabemos ir (una punta de flecha, al fin y al cabo). Pero desconocemos qué es exactamente la mente porque ignoramos qué es su característica fundacional que es la conciencia, el aspecto fundamental de la vida y la existencia. Nos asusta lo que la conciencia pueda llegar a ser y por eso jugueteamos con una ciencia materialista que la reduce a conducta (aunque sea conducta neurológica, al fin y al cabo) y le negamos una existencia real, tildándola de “misticismo” o ridiculizando a los sabios o santos que la exploran. Jugamos ahora con el nuevo juguete cibernético porque no nos compromete y nos admiramos, como ante los juegos de ajedrez automáticos, falsificados o reales, porque la tenemos esa “mente” reducida a la domesticidad, como “El Turco” o los negros encadenados en los zoos (o los prisioneros de los campos nazis víctimas del doctor Mengele).</p>



<p>La búsqueda de la “inteligencia artificial” responde a todo este juego de ambiciones y fascinaciones, todas ellas legítimas. El invento se desarrollará hasta niveles insospechados, con unas funcionalidades que serán enormemente beneficiosas y que muy probablemente nos sacarán de atolladeros hasta ahora vistos como insuperables. Es una tecnología del todo necesaria y admirable que nos llevará a reflexiones muy profundas. Pero carente de un conocimiento imprescindible: no podremos “artificializar” la inteligencia humana sin saber antes qué es la conciencia que le es inherente. ¿Cómo reproducir y emular aquello que teóricamente no existe y que no puede ser reducido a comparación lógica? La ciencia materialista, capaz de producir las admirabilidades más admirables, ha demostrado que también lo es, como bien sabe la nueva pseudoizquierda, de crear catástrofes probablemente no inevitables pero no menos espantosas. ¿Cómo podemos progresar si abominamos del progreso? Quizás la “inteligencia artificial” sea capaz de indicarnos un camino que desvele no ya la imposibilidad de una mente sin conciencia sino la capacidad real de orientarnos hacia una autoconciencia no necesariamente materialista y por tanto, inteligencia natural, ahora sí.</p>



<p><a href="https://catalunyaplural.cat/es/lo-que-la-inteligencia-artificial-dice-de-nosotros">Publicación original: Catalunya Plural.</a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://gabrieljaraba.com/lo-que-la-inteligencia-artificial-dice-de-nosotros/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
