
IA: el desafío de no perder lo humano en la era algorítmica
La inteligencia artificial redefine nuestra relación con la tecnología y plantea desafíos éticos, educativos y humanos clave para el progreso social.
La inteligencia artificial ya interviene en decisiones cotidianas como las imágenes que capturamos con el móvil, los créditos que solicitamos, los contenidos que consumimos en plataformas digitales o las rutas que seguimos en aplicaciones de mapas. Su presencia es tan constante como imperceptible. “En la mayoría de los casos no sabemos que estamos interactuando con algoritmos de inteligencia artificial, pero son ellos los que predicen el tiempo; deciden qué actualizaciones leemos de nuestros amigos; qué películas vemos; qué música escuchamos; qué libros compramos e incluso por dónde vamos, porque los programas de mapas funcionan con IA. Si la mencionas, la mayoría piensa en ChatGPT, pero eso solo es la punta del iceberg”, explica Nuria Oliver, doctora por el MIT y directora científica y cofundadora de Ellis Alicante.
En paralelo al rápido avance tecnológico, expertos y académicos subrayan la necesidad de situar el humanismo en el centro del desarrollo y uso de estos sistemas. El debate no solo se enfoca en cómo diseñar o implementar la IA, sino también en si esta tecnología puede contribuir realmente a fortalecer las capacidades que definen al ser humano. La pregunta es inevitable: ¿pueden las máquinas ayudarnos a ser más humanos?
“La llegada de la IA generativa representa un punto de inflexión revolucionario en nuestra relación con la tecnología porque, paradójicamente, mientras automatiza tareas y aumenta la eficiencia, nos exige ser más humanos que nunca, aplicando pensamiento crítico y potenciando la creatividad, la capacidad de contextualizar, la empatía o el aplicar un juicio ético a la respuesta que la máquina da a lo que le solicitamos”, sostiene Pedro Enríquez de Salamanca, Furby, diseñador e investigador creativo en Soulsight.
Sin embargo, esa relación directa entre tecnología y desarrollo humano no es automática. Como advierte Oliver, el uso responsable de la IA requiere habilidades que no siempre se ejercitan: “los sistemas actuales de IA no son perfectos; tienen una serie de limitaciones y, si queremos hacer un uso responsable de ellos, efectivamente necesitamos desarrollar una serie de habilidades como el pensamiento crítico y la verificación de fuentes, por ejemplo. Pero no es algo que vaya a suceder [de por sí], ya que tú puedes usar una IA generativa cualquiera, creerte todo lo que te está diciendo y actuar en consecuencia”. En este escenario, Enríquez subraya la importancia de reforzar la confianza del usuario en un entorno saturado de simulaciones, desinformación y contenidos manipulados.
Oliver cuestiona hasta qué punto los usuarios aplican realmente una mirada crítica al interactuar con estos sistemas. “Seguramente no muchas, porque los grandes modelos de lenguaje, los chatbots, tienen una capacidad verbal tan desarrollada y el texto que generan está tan bien articulado que automáticamente la mayoría pensamos que lo que dicen es verdad”. No obstante, aclara que el enfoque cambia cuando la IA se diseña con un objetivo formativo: “En Ellis Alicante tenemos un proyecto específico para que la inteligencia artificial fomente el pensamiento crítico, a través de un chatbot que no te responde a todo lo que te preguntas, sino que aplica el método socrático para que seas tú quien encuentre las respuestas”.
La doctora Nuria Oliver, cofundadora de Ellis Alicante.
Ante este contexto, la educación emerge como un factor determinante para recuperar y reforzar habilidades esenciales. Enríquez defiende la necesidad de revalorizar disciplinas como la Filosofía y el debate estructurado, en un entorno que prioriza la rapidez y la eficiencia por encima del pensamiento profundo. Según apunta, la capacidad de organizar ideas y reflexionar críticamente se convierte en un elemento diferenciador en la era digital.
El vínculo cotidiano con la inteligencia artificial generativa, añade, debería integrarse con la misma naturalidad que leer o conversar. Herramientas como ChatGPT, Dall-E, CoPilot o DeepSeek requieren instrucciones claras y bien formuladas. En ese proceso, cuanto mayor sea el bagaje cultural y cognitivo del usuario, mejores serán las preguntas planteadas y más riguroso el análisis de las respuestas obtenidas.
Aun así, Oliver insiste en no equiparar avance tecnológico con progreso social. “No hay que confundir desarrollo tecnológico con progreso, entendiéndolo como la mejora de la calidad de vida de todas las personas”, afirma. Recuerda, además, una paradoja ampliamente compartida: mientras la IA genera textos o imágenes creativas, muchas tareas domésticas siguen recayendo en las personas. Para la investigadora, esta realidad demuestra que la tecnología actual no está alineada con las necesidades que realmente liberarían tiempo para el desarrollo humano.
Si la ética en la IA no se integra desde su concepción, los riesgos pueden ser profundos. Catalina Tejero, decana de Humanidades en IE University, advierte que el principal peligro es desplazar al ser humano del centro de las decisiones. “El principal riesgo es que el ser humano quede desplazado del centro del ‘por qué’ y del ‘para quién’. Una tecnología más avanzada pero que nos lleve a crear sociedades en las que los sesgos den lugar a situaciones de injusticia, o en las que no se respete la privacidad y la libertad de las personas”.
Hablar de innovación implica, por tanto, redefinir su significado. Más allá del rendimiento técnico, los especialistas coinciden en que el verdadero avance reside en la capacidad humana para orientar la tecnología con sentido social y responsabilidad. En este marco, Oliver identifica ocho grandes desafíos éticos asociados a la IA:
- La posibilidad de inferir atributos personales sensibles, como ideología u orientación sexual, a partir de datos aparentemente neutros, lo que supone una violación computacional de la privacidad.
- El uso de datos personales sin consentimiento para entrenar modelos de IA generativa, una práctica cada vez más extendida.
- La falta de transparencia en los sistemas algorítmicos, que dificulta comprender cómo se toman determinadas decisiones.
- La ausencia de garantías sobre la veracidad de los contenidos generados por estas tecnologías.
- La escasa diversidad en el desarrollo de la IA, tanto en los equipos —donde solo un 12 % son mujeres— como en los algoritmos, que tienden a reforzar estereotipos y burbujas ideológicas.
- La discriminación algorítmica, ya que los sistemas pueden reproducir e incluso amplificar desigualdades sociales existentes.
- El elevado impacto ambiental derivado del consumo energético de los modelos de IA, lo que plantea un conflicto entre innovación y sostenibilidad.
- La manipulación subliminal del comportamiento humano, favorecida por la invisibilidad de la IA en muchos entornos digitales.
Oliver señala que la frontera entre persuasión y manipulación es especialmente difusa, dado que muchos sistemas priorizan captar la atención del usuario para maximizar ingresos. Mostrar contenidos extremos o emocionalmente impactantes se convierte así en una estrategia habitual dentro de la economía digital.
Para afrontar estos retos, la investigadora subraya la falta de estudios éticos independientes que analicen el impacto social negativo de la IA. Actualmente, gran parte de la investigación está liderada por grandes corporaciones tecnológicas de China y Estados Unidos, con intereses principalmente comerciales.
“Hay preguntas importantes sobre la inteligencia artificial que probablemente no se están estudiando”, advierte Oliver, especialmente en relación con la salud mental y el diseño de plataformas que buscan prolongar el tiempo de uso mediante contenidos sensacionalistas, aprovechando sesgos cognitivos humanos.
En este contexto, Oliver destaca uno de los proyectos más innovadores de Ellis Alicante, centrado en el llamado “sesgo del atractivo”. El estudio, realizado con la participación de 2.700 personas, demuestra que las percepciones sobre belleza influyen en la atribución de inteligencia, confiabilidad y éxito profesional, afectando de forma distinta a hombres y mujeres.
“Es esencial que los profesionales desarrollen un pensamiento crítico que les capacite para cuestionar y evaluar implicaciones sociales, culturales y éticas”, concluye Tejero. “Además, es clave estimular la creatividad y mantener una mentalidad abierta capaz de entablar diálogos con otras disciplinas y sistemas de valores”.










