Sabemos que los algoritmos están en todas partes. Lo hemos escuchado, lo repetimos, y lo asumimos casi con naturalidad. Lo que quizá no tenemos tan claro es hasta qué punto esos sistemas –que deciden qué vemos, qué compramos o con quién interactuamos– están reconfigurando la manera en que entendemos el mundo y habitamos en él.
El debate ético y social sobre la inteligencia artificial (IA) no es nuevo. Ya en 2017, The Guardian publicaba un artículo con un título tan provocador como premonitorio: «Rise of the racist robots – how AI is learning all our worst impulses». Han pasado algunos años, pero el tema no ha perdido vigencia. Al contrario, la expansión de las IA generativas ha devuelto la discusión al centro de la escena mediática y académica.
Sin embargo, más allá del entusiasmo o la alarma que generan estas tecnologías, lo cierto es que los algoritmos llevan tiempo tomando decisiones que afectan directamente nuestras vidas. Desde los sistemas de recomendación que filtran lo que leemos hasta los programas que evalúan nuestro perfil laboral o calculan el precio de un seguro, la mediación algorítmica se ha vuelto tan cotidiana que apenas reparamos en ella.
Hoy, los algoritmos son la columna vertebral de nuestras sociedades digitales. Operan en los bancos y en los aeropuertos, en los asistentes virtuales, en los sistemas de seguridad y en las plataformas sociales, entre muchos otros aspectos de nuestras vidas, configurando una maquinaria global que combina eficiencia y velocidad, al tiempo que concentra un enorme poder en manos de quienes controlan sus códigos y sus datos.
Algoritmos y consideraciones éticas
Porque, aunque estas tecnologías nos facilitan la vida, también plantean dilemas éticos profundos. ¿Qué ocurre con el trabajo automatizado? ¿Quién decide qué datos se usan y con qué fines? ¿Dónde queda la privacidad? Preguntas como estas nos recuerdan que la inteligencia artificial no solo reproduce la realidad, sino que también la modela, y que en esa capacidad de modelar reside su mayor desafío ético.
Como señala Núria Vallès-Peris (2022), vivimos en una época en la que la ciencia y la tecnología moldean de forma decisiva nuestras sociedades, pero nuestras democracias no siempre están preparadas para gestionarlo. Los algoritmos y el machine learning no son simples herramientas: son, como los llama Langdon Winner (1980), tecnologías políticas. Es decir, no solo hacen cosas, sino que también distribuyen el poder, crean jerarquías y establecen formas de control.
Y hay ejemplos que lo evidencian. En 2016, un informe de ProPublica mostró cómo el sistema judicial estadounidense clasificaba a los acusados negros como potenciales reincidentes casi el doble de veces que a los acusados blancos. El sesgo no estaba en los jueces, sino en el algoritmo. En la lógica de los datos, en los patrones aprendidos de un pasado desigual.
Estos casos nos recuerdan que la tecnología no flota en el vacío: nace de contextos sociales, económicos y culturales. Como advierte Winner, pensar que la tecnología evoluciona sola –y que nosotros solo la seguimos– es una forma de determinismo ingenuo. Frente a esa visión, el construccionismo nos invita a intervenir, a tomar conciencia de que también podemos (y debemos) participar en la forma en que la tecnología se diseña y se usa.
Desde la educación, este enfoque es vital. Como dice Tomás Ibáñez (2001), conocer es un acto de creación. Lo que sabemos, lo que producimos, circula y tiene efectos. Asumir esa responsabilidad es parte de lo que significa vivir en una sociedad tecnológica. Educar, en este contexto, no es solo transmitir competencias digitales o aprender a usar herramientas, sino formar una mirada crítica capaz de interrogar los supuestos que las sustentan.
Necesitamos una educación que no se limite a «convivir con los algoritmos», sino que enseñe a entenderlos, a cuestionarlos y, cuando sea necesario, a desafiarlos. Una educación que devuelva a las personas la capacidad de intervenir en los procesos tecnológicos, no solo de adaptarse a ellos.
En última instancia, el reto no es tanto aprender a utilizar la IA, como aprender a vivir en un mundo configurado por ella, sin perder de vista los valores que queremos preservar. Debemos convertir la alfabetización digital de nuestro tiempo, más que nunca, en una alfabetización ética y política: la de quienes no solo consumen tecnología, sino que la comprenden, la discuten y la transforman.
Para saber más:
IBÁÑEZ, Tomás (2001). Municiones para disidentes. Realidad, verdad, política. Barcelona: Gedisa.
VALLÈS-PERIS, Núria (2022). Guía de aprendizaje de la asignatura Retos Tecnocientíficos. UOC.
WINNER, Langdon (1980).«Do artifacts have politics?». Computer Ethics, pàg. 121-136. Routledge.
Imagen de portada:
Foto de Pexels / Cottonbro Studio.
Citación recomendada
CREUS, Amalia. «Inteligencia artificial, ética y tecnologías políticas». COMeIN [en línea], noviembre 2025, no. 159. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n159.2576



