sábado, 27 de septiembre de 2025

EL PELIGRO DE USAR CHATBOTS

 

EL PELIGRO DE USAR CHATBOTS

 


XATAKA

El peligro de usar chatbots de IA para todo es real: el MIT ha descubierto la “deuda cognitiva”

Un estudio del MIT demuestra que usar IA para escribir atrofia las conexiones neuronales necesarias para el pensamiento crítico

 

26 Septiembre 2025

javier-lacort

 

Editor Senior – Tech

1

Un estudio del MIT ha demostrado que ChatGPT y herramientas similares generan lo que denominan "deuda cognitiva": los estudiantes que recurren a ellas para un uso total acaban escribiendo mejor, pero pensando peor.

Por qué es importante. El estudio contradice la creencia de que la IA es como una calculadora: un simple apoyo que nos libera para razonamientos más complejos. En realidad, estas herramientas pueden atrofiar las conexiones cerebrales que construyen el pensamiento crítico.

2

Los hechos. 54 estudiantes universitarios se han pasado meses escribiendo ensayos, divididos en tres grupos:

Grupo LLM, el cual usó ChatGPT.

Grupo motor de búsqueda, el cual usó Google.

Y Grupo solo-cerebro, sin herramientas externas.

Los investigadores midieron su actividad neuronal con electroencefalogramas y los resultados han sido contundentes: quienes usaron IA mostraron una conectividad neuronal sistemáticamente menor en todas las bandas de frecuencia. En comparación con el grupo que solo usó su cerebro, se observó una menor activación en redes clave que conectan regiones parietales, temporales y frontales, fundamentales para la atención, la memoria y el procesamiento semántico.

3

El 81% de entrevistadores sospechaba de las trampas con IA en entrevistas: el 31% lo ha confirmado sin dudas y le han puesto freno.

El contraste. Los ensayos generados con IA recibieron mejores notas, tanto de los profesores como de los algoritmos evaluadores. Pero sus autores recordaban peor lo que habían escrito minutos antes y sentían una menor autoría sobre sus textos.

 

Cuando forzaron a los usuarios habituales de IA a escribir sin ayuda, sus patrones cerebrales mostraron esa dependencia del apoyo externo. Habían perdido capacidad de reactivar las redes neuronales necesarias para escribir de forma independiente. Como caminar sin apoyos tras años haciéndolo con muletas.

4

Sí, pero. Los estudiantes que aprendieron a escribir sin IA y después la usaron por primera vez mantuvieron su engagement neuronal. Incluso mostraron mejor memoria y reactivación de áreas cerebrales amplias.

5

La diferencia clave: necesitas saber pensar antes de poder pensar con máquinas.

6

En perspectiva. Este patrón replica lo que vemos en otras profesiones:

 

El conductor de metro que se siente alienado porque el tren se conduce solo.

Los traductores convertidos en editores de máquinas.

Los creativos 3D que ya solo retocan lo que genera la IA.

7

La amenaza. El estudio analizó también a universitarios que ya tenían habilidades de escritura desarrolladas. Los efectos podrían ser más severos en adolescentes que aún están construyendo estas capacidades cognitivas.

 

Como dijo un profesor de Dartmouth: corremos el riesgo de crear "una generación educada con atajos de IA" que carezca de habilidades para el pensamiento independiente.

8

Y ahora qué. La secuencia importa más que la tecnología. Primero, se aprende a pensar. Después, se aprende a pensar con máquinas. El cerebro necesita construir esas autopistas neuronales antes de poder delegar selectivamente en la IA.

9

El estudio concluye que las intervenciones educativas deberían "combinar la asistencia de herramientas de IA con fases de aprendizaje sin herramientas" para optimizar tanto la habilidad inmediata como el desarrollo neuronal a largo plazo.

miércoles, 24 de septiembre de 2025

FILOSOFÍA EN LA IA.

 

PENSAR EN LA ÉPOCA DE LA IA.

Javier Ors.La Razón

Creada: 21.09.2025 03:17





1

Distintos pensadores, Irene Ortiz, Paco Calvo y Javier Rueda, los tres participantes del Festival de las Ideas, reflexionan sobre el impacto de la inteligencia artificial en la filosofía y el pensamiento, y exponen las ventajas y también los peligros que entraña

2

La irrupción de la inteligencia artificial modificará el trabajo, la sociedad, la cultura, la ciencia y las humanidades, y abre nuevas y apremiantes interrogantes: ¿Cómo modificará su llegada al pensamiento? ¿Influirá en la manera de percibir el mundo a nuestro alrededor? ¿Alterará nuestros hábitos? ¿Cambiará la manera que tenemos de relacionarnos? ¿Redistribuirá los espacios de las ciudades de una manera distinta a las que conocemos actualmente? ¿Cómo repercutirá la tecnología de algoritmos en todas estas cuestiones?

3

Varios pensadores, que participan en las jornadas del Festival de las Ideas en Madrid, reflexionan sobre estas preguntas y tratan de aportar al debate un punto de vista alejado de tremendismos, optimismos o pesimismos galopantes. Paco Calvo, autor de «Planta Sapiens» (Seix Barral), se aleja de miradas negativas y recapacita sobre cómo la inteligencia artificial puede contribuir a abrir nuevos caminos en la filosofía. «La IA puede abrir nuevas formas de pensar porque nos ayuda a superar el viejo modelo del ‘‘folio en blanco’’ en el que parecía que había que empezar siempre desde cero. En este nuevo escenario, las ideas que surgen dependen de cómo planteamos nuestras preguntas y de cómo guiamos el intercambio. Así dejamos de ser solo autores aislados y asumimos también el papel de editores de un pensamiento compartido, que se enriquece con este diálogo continuo». En el mismo sentido avanza el sociólogo Javier Rueda, autor de «Utopías de barra de bar», publicado por la editorial ¿Es posible?, cuando explica que «en el mundo de la producción científica existen unos estándares sobre los textos. A día de hoy, la IA contribuye al desarrollo de estos artículos y a la evaluación de ellos por parte de revistas y, en la cuestión creativa, ayuda a comenzar a pensar, a darle la vuelta a un asunto, aunque lo que te proponga en un inicio resulte insuficiente o no aporte nada».

4

 

Pensamiento repetitivo

 

Pero él también llama la atención sobre una importante cuestión: «Las propias lógicas productivas y del pensamiento que construyan textos sin intervención humana; en el momento en que se logra un pensamiento repetitivo de un canon, que reproduce todo y no crea conocimiento nuevo, esto sería negativo. Ahora hay herramientas que resumen el conocimiento. Pero no es lo mismo que te reduzcan el argumento de “La colmena”, de Cela, a leer “La colmena”. No es lo mismo. En el momento en que para construir conocimiento se acuda al resumen de lo anterior, esto conducirá al empobrecimiento y a cierta miseria intelectual».

5

La filósofa Irene Ortiz, autora de «El mito de la ciudadanía», pone, antes que nada, un punto esencial para el debate: «Usamos el término inteligencia, pero eso no es pensar en el mismo sentido de razonar que tiene el ser humano. Trazaría una distinción clara entre una máquina que procesa información y la expone, y el razonamiento del ser humano. Más que la IA, más que tenerla, tiene sentido pensarla, qué desafío representa para el ser humano, pero tampoco debería suponer un gran temor».

 

La pensadora expone una importante objeción: «El problema es pensar que solo hay una respuesta para nuestras preguntas y que esa respuesta es la de la IA. Cuando formamos grupos diferentes de personas, obtenemos siempre distintas contestaciones para una misma pregunta. Esto ofrece un amplio abanico de posibilidades. Ahí aprendemos a discernir cuáles son las más razonables, cuáles nos seducen y a diferenciar entre unas y otras. El problema de la IA es creer que sus respuestas son las únicas correctas, desestimando el resto del abanico de respuestas y, esto es crucial, sin tener en cuenta el razonamiento de esa IA. Por eso me preocupa qué compañías están detrás de ellas, porque eso va a priorizar unas respuestas sobre otras».

6

Gran parte de la filosofía es saber hacer preguntas. Las interrogantes son casi más importantes que las contestaciones que se obtengan. Por eso, Paco Calvo, sobre este asunto, considera que «es un error plantear nuestra sociedad con el término de “sociedad de las respuestas’’. Lo que ofrecen las IAs generativas no son respuestas cerradas, sino la posibilidad de entablar un diálogo continuo. Si la filosofía siempre se ha basado en hacer preguntas, seguirá siéndolo también ahora. Todo depende de cómo formulemos esas preguntas y cómo orientemos la interacción. Al fin y al cabo, ¿qué es el llamado prompt engineering sino el arte de preguntar bien?».

 

Por eso, matiza: «El riesgo no está en la IA, sino en quien decida pasarse el día hablándole solo a un ordenador. Eso sería como culpar al ábaco porque alguien en el siglo XIX no hacía otra cosa que mover bolitas. El problema no es la herramienta, sino el uso que se haga de ella».

7

Proceso de aceleración

Irene Ortiz repara en otro asunto que va parejo: la velocidad. «La rapidez de esta sociedad nos obliga a tener las respuestas ahora, y este proceso de aceleración, a la hora de hacer filosofía, tiene consecuencias. No sé qué opciones de tiempo tiene la gente, al salir del trabajo, para pararse a pensar y dedicar un rato a las preguntas de las que se ha ocupado la filosofía a lo largo de los siglos. Eso puede ser un problema, pero tengo la esperanza de que el ser humano encontrará siempre espacios, porque es una forma inherente de hacerse preguntas, como la pregunta por el sentido de la vida, que estará ahí, siempre, en cada momento, pero es cierto que disponer de menos tiempo afecta a esa reflexión pausada». En este debate coincide Paco Calvo, que aprecia que «no nos engañemos: los grandes temas de la filosofía no caducan. Desde que el mundo es mundo, seguimos girando en torno a las mismas preguntas esenciales: el amor y la muerte. Todo lo demás son variaciones sobre ese mismo fondo».

8

Javier Rueda remarca otras cuestiones relevantes. «Lo que puede ser peligroso de una herramienta como la IA son los caminos que establece, porque estaría marcando cuáles son los caminos que vamos a recorrer. Modelos de lenguaje como este es reconstruir lo que se ha escrito, redactado o pensado. La IA regurgita lo que hay. Es un Reader’s Digest de concentración. Cuando vas por un campo y ves hierba crecida, eliges el camino donde está caída. Con la IA pasa eso: conforma un camino único».

9

El principal escollo, para él, descansa en «este pisar fuerte sobre el mismo camino, que genera la imposibilidad de crear caminos alternativos. Es necesario pensar más fuera de la IA, para no aletargar la imaginación, más la imaginación que la inteligencia, y, cuando estemos dentro, a lo mejor deberíamos mirar caminos que no sean el único, sobre todo en los campos del arte, que es donde deberían crearse cosas diferentes». Para Javier Rueda, esto tiene una consecuencia que va más allá y que se traduce en algo tan físico y al alcance de todos como es la ciudad y la manera de relacionarnos. «Es un tema y tiene una primera traducción importante. Herramientas como Google Maps ya están transformando el espacio público a partir del diseño. Si le preguntamos cómo debe ser a una IA, esta responderá con unas soluciones que, a fuerza de repetirlas, se impondrán como una normalización. Esta lógica normalizadora fomentaría que un centro urbano correcto, una periferia o el entorno de un río, deba responder a unos elementos estéticos: calles adoquinadas, una zona de uso infantil, una fuente y una zona para terrazas. Y, fíjate, cada vez más nos parecemos a eso».

10

Pero para el sociólogo hay más: esto influirá en que, como los algoritmos buscan las afinidades, las posibilidades de encuentros aleatorios se reducirán y la gente que pertenezca a un mismo estatus social, unos mismos intereses o unas mismas pautas tenderá a concentrarse en lugares determinados: la oportunidad de toparte con personas de distinta procedencia, pensamiento, clase o conciencia se reducirá. «La filosofía es el arte de cómo formular las preguntas. Si no tenemos esta manera de preguntar, las respuestas de la IA serán fáciles. Cuando las preguntas se simplifican hasta la banalización, las respuestas son de corte de pensamiento mágico. Una buena pregunta nos llevará siempre a buen sitio, pero si no se plantea así, la respuesta será una porquería. Aparte de que hoy la información es tan excesiva, que lo importante no es solo la verdad, sino discernir el trigo de la paja». O, como sostiene Paco Calvo, «la IA no resuelve problemas por nosotros, pero nos obliga a hacer mejores preguntas. Y de la calidad de las preguntas depende siempre nuestra capacidad de pensar».

viernes, 12 de septiembre de 2025

FRAMEWORK

 

1

¿Qué son los Frameworks en Prompt Engineering?

Un Framework en Ingeniería de Prompt es un conjunto estructurado de directrices, plantillas, principios o metodologías para construir prompts efectivos y replicables.  Su objetivo es estandarizar la forma en que interactuamos con los modelos, haciendo el proceso menos dependiente de la intuición y más basado en una metodología probada.

2

Introducción a los Frameworks de Prompt Engineering

Los Frameworks en Ingeniería de Prompt se están convirtiendo rápidamente en una pieza clave para interactuar de manera efectiva con los modelos de Inteligencia Artificial (IA), especialmente los grandes modelos de lenguaje (LLMs). Hoy en día entender y aplicar estos marcos de trabajo es fundamental para cualquiera que busque obtener resultados consistentes y de alta calidad de la IA. Pero, ¿qué son exactamente y por qué han ganado tanta relevancia? Como experto con años de experiencia en el campo, te lo explico. La ingeniería de prompt, en esencia, es el arte y la ciencia de diseñar las entradas (prompts) adecuadas para que un modelo de IA genere la salida deseada. A medida que los modelos se han vuelto más complejos y capaces, la simple improvisación ya no es suficiente; necesitamos estructura.

3

Beneficios Clave de Usar Frameworks

La adopción de frameworks en la ingeniería de prompt no es una moda pasajera, sino una necesidad impulsada por los beneficios tangibles que ofrecen:

 

Mejora de la Calidad y Precisión: Un prompt bien estructurado reduce la ambigüedad y guía al modelo hacia la respuesta deseada, minimizando errores o resultados irrelevantes.

Consistencia y Replicabilidad: Permiten obtener resultados similares ante peticiones parecidas, lo cual es crucial en aplicaciones empresariales o científicas. Si diferentes personas usan el mismo framework, los resultados tienden a ser más homogéneos.

Eficiencia: Ahorran tiempo al no tener que reinventar la rueda cada vez que se necesita un prompt. Proporcionan un punto de partida sólido que se puede adaptar.

Optimización y Escalabilidad: Facilitan la prueba y mejora sistemática de los prompts. Además, son esenciales para escalar el uso de la IA, permitiendo crear y gestionar grandes volúmenes de interacciones de forma ordenada.

Facilidad de Colaboración: Un equipo que comparte frameworks puede colaborar más eficazmente en el desarrollo y mantenimiento de aplicaciones basadas en IA.

4

Principios y Enfoques Estructurados de los Frameworks

Si bien el concepto de «framework» formalizado para prompts es relativamente nuevo y aún está en evolución (no hay un único estándar universalmente aceptado como en el desarrollo de software), sí existen principios y técnicas estructuradas que forman la base de muchos de estos enfoques. Algunos de los más relevantes incluyen:

 

Claridad y Contexto Explícito: Proporcionar toda la información de fondo necesaria y definir claramente la tarea.

Definición de Roles (Role Prompting): Asignar un rol específico a la IA (ej. «Actúa como un experto en marketing digital») para enfocar su respuesta.

Proporcionar Ejemplos (Few-Shot Prompting): Incluir ejemplos del formato o tipo de respuesta esperada dentro del propio prompt.

Descomposición de Tareas (Chain-of-Thought – CoT): Guiar al modelo para que «piense paso a paso» antes de dar la respuesta final. Esta técnica ganó mucha tracción a partir de investigaciones publicadas alrededor de 2022.

Razonamiento y Acción (ReAct – Reason+Act): Combinar el razonamiento interno del modelo con la capacidad de realizar acciones (como buscar información externa) para responder preguntas complejas, un enfoque explorado significativamente desde 2023.

Especificación del Formato de Salida: Indicar claramente cómo debe ser la respuesta (ej. «en formato JSON», «en una lista con viñetas», «con un tono formal»).

Herramientas como LangChain o LlamaIndex, aunque son bibliotecas de desarrollo, ayudan a implementar estos principios estructurados, facilitando la creación de cadenas de prompts complejas y la integración con fuentes de datos externas, actuando como facilitadores para aplicar estos «frameworks» metodológicos.

5

El Auge de los Frameworks, un Fenómeno Ligado a los LLMs

La necesidad y el desarrollo de frameworks de prompt engineering están intrínsecamente ligados a la evolución de los grandes modelos de lenguaje. La publicación de GPT-3 por OpenAI en junio de 2020 marcó un antes y un después, demostrando capacidades sin precedentes que requerían formas más sofisticadas de interacción. Con la llegada posterior de modelos aún más potentes como GPT-4 (presentado en marzo de 2023), Claude, Gemini y otros, la habilidad para «hablar» eficazmente con estas IAs se volvió crítica. Fue a partir de 2022 y 2023 cuando la comunidad de IA empezó a formalizar y compartir más activamente estas metodologías estructuradas, dando lugar al concepto de «Frameworks de Prompt Engineering» como lo entendemos hoy.

6

El Futuro es Estructurado, Dominar los Frameworks será Crucial

En conclusión, los Frameworks en Ingeniería de Prompt son mucho más que una simple técnica; representan un cambio hacia un enfoque más metódico, científico y eficiente para interactuar con la Inteligencia Artificial. A medida que la IA se integra más profundamente en nuestras vidas y trabajos, la capacidad de diseñar prompts efectivos utilizando enfoques estructurados no será solo una ventaja, sino una habilidad esencial. Dominar estos frameworks es clave para desbloquear todo el potencial de los modelos de lenguaje avanzados y asegurar que la IA trabaje para nosotros de la manera más precisa y útil posible. El futuro de la interacción con la IA, sin duda, será estructurado.

 

Fuente:

 


jueves, 11 de septiembre de 2025

LOS QUE MENOS ENTIENDE LA IA SON SUS MÁS ENTUSIASTAS

 

LOS QUE MENOS ENTIENDE LA IA SON SUS  MÁS ENTUSIA.STAS

 


Estamos descubriendo algo sorprendente con la IA: quienes menos la entienden terminan siendo sus mayores entusiastas

Un estudio muestra que quienes menos entienden la IA son los que más la usan

La percepción de magia impulsa el entusiasmo por estas herramientas

Los expertos piden equilibrar curiosidad, conocimiento y transparencia

5 Septiembre 2025

 

Javier Marquez

 

Editor – Tech

1

Imagina que pides a ChatGPT o Gemini un poema, una receta o un resumen y la respuesta aparece pulida en tu pantalla en cuestión de segundos. Ahora pregúntate qué ocurre detrás: modelos entrenados con millones de datos, procesos de inferencia en tiempo real. Quienes comprenden ese mecanismo suelen mirar la IA con más escepticismo; quienes no lo entienden tan bien tienden a verla con mayor fascinación. Un estudio reciente sugiere que esa diferencia de comprensión ayuda a explicar quiénes la adoptan con más entusiasmo.

2

Lo habitual con las nuevas tecnologías es que los primeros en adoptarlas sean quienes mejor las entienden. Con la inteligencia artificial ocurre lo contrario. Una investigación publicada en Journal of Marketing por Stephanie Tully, Chiara Longoni y Gil Appel muestra que las personas con menor alfabetización en IA suelen ser las más entusiastas a la hora de usarla. El hallazgo se repite en distintos contextos y países: cuanto menos se comprende cómo funciona, más fascinación genera y mayor es la disposición a incorporarla en el día a día.

3

Cuando entender menos significa entusiasmarse más

Como apunta WSJ, para llegar a estas conclusiones, los autores desplegaron una batería de estudios en varias fases, con encuestas y experimentos realizados en 27 países. Además de evaluar tareas concretas, midieron la alfabetización en IA con instrumentos propios, como un cuestionario de 25 preguntas, y con una prueba de 17 preguntas elaborada con dos sistemas de IA. En uno de los experimentos, 234 estudiantes universitarios indicaron si usarían una herramienta gratuita para trabajos académicos que iban desde analizar el inicio de la Primera Guerra Mundial hasta escribir un poema romántico. El patrón fue consistente: cuanto menor era el conocimiento técnico, mayor la disposición a usarla.

4

Según los autores, el vínculo entre baja alfabetización y entusiasmo no se explica por creer que la IA es más capaz o menos peligrosa, sino por cómo se interpreta su funcionamiento. Para quienes no conocen los detalles técnicos, ver a un sistema generar contenido creativo puede resultar sorprendente y hasta misterioso. Esa sensación de magia despierta curiosidad y confianza, lo que hace que estas herramientas resulten más atractivas. Los investigadores añaden que esta relación tampoco está vinculada a valoraciones sobre la capacidad de la IA, a juicios éticos ni al miedo a su impacto, sino precisamente a esa aura de “magia”.

5

El trabajo también subraya que este patrón no significa que la fascinación por la IA sea universal ni que desaparezca al comprender su funcionamiento. Quienes tienen más formación tienden a ver algoritmos donde otros ven magia, lo que no implica desinterés, sino una aproximación más crítica. Además, los resultados reflejan tendencias generales y el entusiasmo puede variar según el contexto, el tipo de tarea y la experiencia previa del usuario. El estudio no pretende simplificar el debate, sino aportar datos sobre cómo percibimos estas tecnologías.

5

Ia Movil

Los investigadores apuntan que estas conclusiones pueden tener aplicaciones directas para empresas que desarrollan productos basados en IA. Identificar a los usuarios con menos conocimientos técnicos como un público más receptivo puede ayudar a diseñar estrategias de marketing y experiencias de uso más accesibles. Al mismo tiempo, advierten que alimentar el misterio de estas tecnologías puede ser contraproducente: cuanto más opaca es una herramienta, más difícil resulta construir confianza a largo plazo. El reto está en equilibrar la curiosidad con la transparencia sobre cómo funcionan los sistemas.

6

El estudio sugiere que el asombro es una puerta de entrada eficaz a la inteligencia artificial, pero no sustituye al conocimiento. Aprender cómo funcionan estas tecnologías ayuda a reconocer sus riesgos, valorar sus beneficios y tomar decisiones más informadas sobre su uso. Para los usuarios, familiarizarse con los fundamentos técnicos es una forma de seguir explorando sin dejarse llevar solo por la novedad. La fascinación puede seguir ahí, pero acompañada de criterio, lo que a largo plazo permite una relación más saludable y productiva con la IA.

(Fuente: Xataka)

miércoles, 10 de septiembre de 2025

AVATAR

 



AVATAR

 

1

Representación gráfica de la identidad virtual de un usuario en entornos digitales.

2

Un avatar  es un personaje virtual creado mediante tecnologías de inteligencia artificial.

3

En la religión hindú, encarnación terrestre de alguna deidad, en especial Visnú.




CHAT

 

CHAT


La palabra "chat" proviene del verbo inglés chatter, que apareció en inglés medio alrededor del año 1200 y describía el canto de los pájaros y una conversación informal y amena. A mediados del siglo XV, chatter se convirtió en el verbo chat, que significa "charlar", y posteriormente en un sustantivo que significa conversación informal.







ALPHAFOLD

  ALPHAFOLD       1   AlphaFold es un programa de inteligencia artificial (IA) desarrollado por DeepMind , una subsidiaria de ...