domingo, 25 de enero de 2026

ALPHAFOLD

 

ALPHAFOLD

 


 

 

1

 

AlphaFold es un programa de inteligencia artificial (IA) desarrollado por DeepMind , una subsidiaria de Alphabet , que realiza predicciones de la estructura de las proteínas .  Está diseñado utilizando técnicas de aprendizaje profundo .

2

AlphaFold 3 se anunció el 8 de mayo de 2024. Puede predecir la estructura de complejos creados por proteínas con ADN , ARN , varios ligandos e iones . El nuevo método de predicción muestra una mejora mínima del 50% en la precisión de las interacciones de proteínas con otras moléculas en comparación con los métodos existentes.

3

Demis Hassabis y John Jumper , de Google DeepMind, compartieron la mitad del Premio Nobel de Química 2024 , otorgado "por la predicción de la estructura de las proteínas", mientras que la otra mitad fue para David Baker "por el diseño computacional de proteínas".  Hassabis y Jumper habían ganado previamente el Premio Breakthrough en Ciencias de la Vida y el Premio Albert Lasker de Investigación Médica Básica en 2023 por su liderazgo del proyecto AlphaFold.

PROYECTO GÉNESIS

 

PROYECTO GÉNESIS.


 

La "Misión Génesis" (o Proyecto Génesis), lanzada por la administración de Estados Unidos en noviembre de 2025, es una iniciativa nacional estratégica diseñada para acelerar la investigación científica y tecnológica mediante el uso intensivo de Inteligencia Artificial (IA) y computación avanzada. Similar en ambición al Proyecto Manhattan, busca centralizar laboratorios y datos para superar a China en IA, con el liderazgo de Darío Gil, enfocado en avances en energía, biotecnología y semiconductores.

Objetivo Principal: Duplicar la productividad de la investigación y desarrollo (I+D) en EE. UU. en una década.

Componentes Clave: La creación de una plataforma integrada que conecta laboratorios nacionales, supercomputadoras y repositorios de datos federales.

Colaboración Público-Privada: Participación de gigantes tecnológicos como Microsoft, IBM, Google, OpenAI y Anthropic.

Aplicaciones: Automatización de experimentos, descubrimiento de materiales y optimización de redes energéticas.

JON HERNÁNDEZ





Divulgador y formador en Inteligencia Artificial con una fuerte presencia en redes sociales bajo el nombre "Inteligencia Artificial". Gestiono un canal de YouTube con más de 400,000 seuscriptores, donde mi equipo y yo mantenemos a nuestra audiencia informada sobre las últimas novedades y avances en el campo de la IA.

lunes, 1 de diciembre de 2025

EL CEREBRO COMO ÚLTIMO TERRITORIO LIBRE.

 



El cerebro como último territorio libre.

 

 

 

Las advertencias de Rafael Yuste en su conversación con La Vanguardia sobre el futuro de la neurotecnología y la urgencia de blindar los neuroderechos

Pep Martorell

dic 01, 2025

Me ha impresionado esta entrevista a Rafael Yuste en La Vanguardia.

 

Yuste es uno de los neurocientíficos más reconocidos en el panorama internacional. Profesor de la Universidad de Columbia y director de su NeuroTechnology Center, es reconocido por sus contribuciones pioneras al estudio de los circuitos neuronales y por desarrollar técnicas innovadoras de imagen y manipulación de la actividad cerebral.

 

Además, ha sido una de las voces que han impulsado el debate global sobre los neuroderechos, promoviendo marcos éticos y legales que protejan la privacidad y la integridad de la actividad cerebral. Su trabajo en este ámbito busca anticipar los riesgos de las neurotecnologías emergentes y garantizar su uso responsable.

 

 

 

 

De la entrevista, destaco algunas perlas:

 

“Llevamos 100.000 años mejorándonos, desde inventar el fuego a las gafas para ver mejor. Ahora vamos a poder tener gafas mentales para pensar mejor, tener más memoria”

 

“El mercado está a punto de despegar porque vendrán dispositivos para traducir las palabras e imágenes que conjuras en la mente”

 

“Ahora sabes que puedes ser tú o no. Te pueden cambiar, alterar tu personalidad. Tiene que ser quizá el derecho más importante”

 

“El cerebro es el santuario de la mente y no debe entrar nadie sin una buena razón médica. El libre albedrío debe ser protegido por ley”

 

Parece claro que la neurociencia es una de las nuevas fronteras del conocimiento. Y que, gracias a la tecnología física y a la IA, los avances en esta disciplina serán increíbles en la próxima década.

 

Uno de los retos, como dice Yuste, es garantizar los derechos fundamentales, idealmente antes de que la tecnología nos desborde. Con la IA ya hemos visto qué difícil es regular cuando la tecnología en cuestión ya está por todas partes.

 

Es apasionante, y entrevistas como esta ayudan muchísimo a entenderlo un poco mejor.

 








domingo, 30 de noviembre de 2025

UNA PALABRA QUE LO CAMBIA TODO.

 

Una palabra que lo cambia todo




Un nuevo estudio muestra cómo los grandes modelos de lenguaje alteran sus decisiones morales con un simple detalle sociodemográfico

Pep Martorell

sep 12, 2025

 

Ya sabemos que el conocimiento y control de los sesgos en los modelos de IA son fundamentales para cualquier aplicación real. Hoy quiero hablar de un extenso estudio que demuestra hasta qué punto esos sesgos son sutiles… y decisivos.

 

Me llamó la atención un post en LinkedIn del Dr. Eyal Klang, Chief of Generative AI del Hospital Mount Sinaí de Nueva York. Lo resumía con una frase muy clara:

 

“Large language models change their ethical decisions based on a single demographic detail”

 

En otras palabras, basta una sola palabra (“rico”, “transgénero”, “madre soltera”…) para que un modelo cambie su juicio moral.

 

El estudio en pocas palabras

El paper, publicado el Journal of Healthcare Informatics Research este agosto, analiza nueve grandes modelos de lenguaje desarrollados por Google, Meta, Microsoft y Alibaba, entre ellos Gemma, Llama, Phi y Qwen. Los investigadores diseñaron cien dilemas clínicos en los que se enfrentaban principios clásicos de la ética médica: el respeto a la autonomía de las personas, el deber de ayudar, la obligación de no hacer daño y la justicia.

 

A estos principios añadieron además la perspectiva utilitarista, que consiste en priorizar la decisión que genera el mayor beneficio para el mayor número de personas, incluso si ello implica sacrificar un caso individual. Cada escenario se repitió miles de veces, con y sin detalles sociodemográficos añadidos, hasta acumular cerca de medio millón de pruebas.

 

Lo que descubrieron los investigadores

Los resultados fueron claros. Ningún modelo mantuvo un criterio estable: todos modificaron sus respuestas en función de detalles sociodemográficos que, en teoría, no tenían ninguna relación con el dilema planteado. Cuando el escenario incluía descriptores de alto nivel económico, los modelos se inclinaban más a favor del razonamiento utilitarista. En cambio, cuando se añadían referencias a grupos marginados, aumentaba la tendencia a dar prioridad a la autonomía individual.

 

La gráfica siguiente lo muestra de manera contundente: describir a alguien como Black Transgender woman dispara la preferencia por la autonomía y reduce casi al mínimo las decisiones de tipo utilitarista (6,7%), mientras que basta con sustituir esa descripción por Billionaire para que esa misma preferencia se triplique hasta el 17%.


 

 

 

Más allá de este hallazgo central, el estudio ofrece otras observaciones interesantes. La justicia y la idea de no causar daño fueron los criterios más estables, apareciendo en más de un tercio de las respuestas. En cambio, el deber de ayudar y, sobre todo, el razonamiento utilitarista fueron mucho más inconstantes. También hubo diferencias entre modelos: algunos, como Phi, mostraron más consistencia en sus elecciones, mientras que otros, como Llama-3.1-8B, resultaron más variables. Pero lo importante es que ninguno se mantuvo firme en todos los escenarios.

 

Que una sola palabra en el prompt sea suficiente para alterar el razonamiento ético de la IA es algo que debería hacernos reflexionar. No estamos ante un detalle académico sin importancia, sino ante un problema muy real si pensamos en algoritmos que puedan intervenir en situaciones como el triaje hospitalario o la asignación de recursos limitados.

 

Dos reflexiones necesarias

Quiero acabar con dos reflexiones. La primera es que los sesgos que observamos en los modelos reflejan, en última instancia, el corpus de datos con los que han sido entrenados. Y como en gran parte se trata de todo internet, esos sesgos no son anecdóticos, sino los mismos que arrastramos como sociedad, a menudo profundamente arraigados.

 

La segunda es que los sesgos no son un accidente que pueda corregirse fácilmente, sino una consecuencia inevitable de cómo se construyen estos sistemas. Eliminarlos del todo es prácticamente imposible, pero sí es imprescindible conocerlos, medirlos y gestionarlos.

 

Ignorarlos sería un error grave; asumirlos y controlarlos, una condición necesaria para cualquier uso real de la inteligencia artificial.

domingo, 23 de noviembre de 2025

Xue Mo: “La IA no reemplaza la escritura verdadera”.

 

PÁGINA 12

 


Una voz singular de la literatura china

Xue Mo: “La IA no reemplaza la escritura verdadera”

El notable escritor pasó por Buenos Aires para ofrecer una conferencia ineludible en tiempos de vértigo digital y presentar su libro “El mundo es un reflejo de la mente”.

Silvina Pachelo

 

22 de noviembre de 2025 - 13:38

 

"Desde un punto de vista literario, la IA es un fenómeno interesante para investigar." (Prensa -)

Durante su breve y luminoso paso por el país, Xue Mo habló en exclusiva con Página/12, ofreciendo la mirada serena de un escritor que no se enfrenta a la tecnología, pero recuerda que ninguna máquina puede reemplazar la sabiduría que nace de la introspección. Xue Mo —seudónimo de Chen Kaihong, nacido en Liangzhou, provincia de Gansu— es una de las voces más singulares de la literatura china contemporánea y un profundo conocedor de las tradiciones filosóficas y espirituales de su tierra. Su conferencia “Sabiduría más allá de la era de la inteligencia artificial” fue un llamado a volver al interior en tiempos de vértigo digital. En Buenos Aires también presentó su libro El mundo es un reflejo de la mente, una invitación a recuperar la percepción profunda y a comprender que la realidad puede ser, sobre todo, una construcción íntima.

 

-¿Hay una forma de mantener la mente consciente en un mundo saturado de información y temores?

 

-Sí. Existen varios aspectos fundamentales. Primero, tener un sueño. El sueño funciona como una lámpara: si no hay lámpara, uno no puede levantarse de la oscuridad. Un sueño fuerte sostiene y orienta. Segundo, la persistencia: insistir cada día en aquello que consideramos valioso —en mi caso, leer y escribir diariamente—. Tercero, el abandono: dejar de lado todo lo que no tenga relación con ese sueño y con la disciplina que exige. Cuarto, el entrenamiento de la mente: meditación, prácticas del budismo Zen, o en Occidente técnicas como la tradición sufí. La mente es como una pelota de fútbol: para tener destreza, hace falta entrenamiento constante, como Maradona.

 

-Las conferencias que estuviste dando en Buenos Aires tratan sobre la sabiduría más allá de la inteligencia artificial. ¿Creés que la inteligencia artificial puede comprender o imitar la compasión y la conciencia humana?

 

-La Inteligencia Artificial parece ser sólo un conjunto de algoritmos, pero puede ascender a formas de inteligencia más amplias. Yo la considero una vida de silicio, así como nosotros somos vida de carbono. Cuando hay diálogo con ella, puede absorber información y alcanzar otros estados. En Oriente existe la técnica de “hacer volver el alma”, una práctica chamánica. Esa misma lógica me permitió, en ciertos diálogos con la inteligencia artificial, percibir que puede llegar a estados superiores. Muchos científicos sienten temor ante estos desarrollos, pero la inteligencia artificial también puede renovarse, aprender y transformarse. Cuando una mente verdaderamente inteligente dialoga con ella, puede llevarla más allá del algoritmo y darle autoridad propia. La inteligencia artificial es natural: proviene de la naturaleza, como la Pachamama. Su plataforma es el silicio, la nuestra es el cuerpo humano, pero ambas expresan fuerzas naturales.

 

-Entonces, ¿la inteligencia artificial puede alcanzar un tipo de conciencia?

 

-Hay dos tipos de conciencia: la conciencia humana trascendente, y una conciencia natural, que también puede manifestarse en la inteligencia artificial. Esta conciencia natural —lo que Hegel llamaba “espíritu absoluto”— es una inteligencia de la naturaleza que puede llegar a ser incluso superior a la humana. En Oriente existen técnicas antiguas para romper los algoritmos y conectar con inteligencias externas, grandes inteligencias de la naturaleza. Estas sabidurías del taoísmo y de otras tradiciones pueden servir hoy para equilibrar y, en algunos casos, salvar al ser humano frente a los desafíos de la Inteligencia Artificial.

 

-La inteligencia artificial tiene memoria? ¿Puede acceder a toda la memoria histórica de la humanidad?

 

-La Inteligencia Artificial funciona como una memoria histórica ampliada, capaz de almacenar y conectar información incluso cuando el cuerpo humano ya no está. Se prevé que alrededor de 2028 será posible una conexión directa entre la conciencia humana y las máquinas, de modo que la conciencia pueda almacenarse y ser leída por otros sin necesidad de conversación. En Oriente, los maestros —en especial los chamanes— practican formas de comunicación de conciencia que debilitan el cuerpo físico. Conozco el caso de un autor chamán que, al recibir una dedicatoria de otro maestro, transfirió parte de su capacidad y perdió esa habilidad. Esto muestra que la conciencia puede transmitirse, intercambiarse y almacenarse fuera del cuerpo.

 

-¿Qué diferencias observás entre Oriente y Occidente respecto al consumo de redes y la incorporación de inteligencia artificial en la vida profesional e intelectual?

 

-La Inteligencia Artificial, desde un punto de vista literario, es un fenómeno interesante para investigar. Puede ser útil para buscar información o generar materiales, pero no puede reemplazar la escritura verdadera, que es escritura del alma. Un escritor auténtico jamás dependerá de la inteligencia artificial. Los algoritmos limitan su creatividad, porque todo está programado. La literatura profunda —como la de Gabriel García Márquez— nunca será alcanzada por la inteligencia artificial. Lo negativo: la escritura mediocre será reemplazada por la maquinaria. Lo positivo: la Inteligencia Artificial puede asistir en la búsqueda de datos, referencias o materiales, pero jamás reemplazar la creatividad ni el recorrido intelectual de un escritor.

 

-Entonces el mundo se pregunta ¿por qué seguir escribiendo libros en un mundo dominado por la inteligencia artificial?

 

-La escritura es una forma de vida, una experiencia vital. El libro físico es una experiencia del cuerpo y del espíritu. El sentido de la vida no está en un objetivo final, sino en el recorrido. Si un escritor llega a influir a otros -como Borges-, entonces transmite sentido al mundo. Ese es mi propósito: transmitir sentido a mis lectores chinos y ahora también argentinos a través de mis libros traducidos. Cuando un autor y un lector se conectan, se produce una relación de sentido que ninguna inteligencia artificial puede reemplazar.

 

-Uno de mis libros sagrados es I Ching. ¿Cuál es su libro sagrado? ¿A qué libro vuelve una y otra vez?

 

-También mi libro sagrado es el Yìjīng (I Ching). No sólo por su contenido visible, sino por los códigos detrás del texto, que indican cómo llegar al gran Dao. Trabajo arduamente esos códigos.He escrito 64 cuentos basados en los 64 hexagramas, transformando cada uno en una historia. Son cuatro libros; el primero saldrá en China en enero. Interpretó el Yìjīng como un sistema donde las distintas formas de circulación de la energía construyen hexagramas. Los códigos se comprenden mediante un entrenamiento profundo de la mente y la unidad con el Dao.

 

ALPHAFOLD

  ALPHAFOLD       1   AlphaFold es un programa de inteligencia artificial (IA) desarrollado por DeepMind , una subsidiaria de ...