En estos tiempos de cambio entre lo analógico y lo digital, la Inteligencia Artificial (IA) no debe entenderse ni como una revelación divina ni como una amenaza demoníaca. Es, más bien, otra construcción más creada por la propia humanidad, comparable con otros descubrimientos y grandes innovaciones que han marcado el progreso humano a lo largo de la historia. Su valor ético no reside en su naturaleza, sino en las intenciones, estructuras y decisiones de quienes la diseñan y las utilizamos, que aquí nos incluimos la mayoría.
A lo largo del tiempo, el desarrollo humano ha estado impulsado por la capacidad de reconocer, apropiarse y transformar fuerzas ya existentes en la naturaleza. El fuego, por ejemplo, existía mucho antes de la aparición de los seres humanos; sin embargo, su dominio permitió a las primeras sociedades sobrevivir a climas hostiles, protegerse de los depredadores, cocinar alimentos de forma segura y crear espacios sociales compartidos. El fuego no solo mejoró la supervivencia: fomentó la comunicación, la transmisión de relatos y la identidad colectiva. En este sentido, supuso un paso decisivo en la evolución humana.

La domesticación del fuego contribuyó al tránsito desde formas de vida nómadas hacia comunidades estables. Esta estabilidad hizo posible el desarrollo de la agricultura, que a su vez permitió cultivar alimentos, almacenarlos y sostener poblaciones cada vez más numerosas. La agricultura y el control de la ganadería (animales domesticados por el hombre) marcaron un cambio fundamental en la organización social, la producción económica y la planificación a largo plazo.

Posteriormente, avances tecnológicos como la invención de la rueda o el uso del hierro ampliaron aún más la capacidad humana para transportar bienes, recursos y personas. Estos descubrimientos e innovaciones no fueron actos aislados de genialidad, sino respuestas acumulativas a los desafíos prácticos de sociedades en crecimiento.

En la mitad del siglo XV, el orfebre alemán Johannes Gutenberg inventó la imprenta que revolucionó la difusión del conocimiento desde Europa al resto del mundo sabiendo que fue la Escuela de Salamanca quien la llevó a América. Antes los chinos en el siglo XI utilizaban el papel de arroz y la porcelana para expandir la información y los árabes trajeron técnicas similares a la Península Ibérica. El clero y los frailes copistas fueron perdiendo protagonismo.

Al inicio de la Edad Moderna, la humanidad volvió a situarse ante un umbral crítico. El crecimiento demográfico comenzó a superar la capacidad productiva de los sistemas agrícolas tradicionales. En la Inglaterra del siglo XVII, este desequilibrio impulsó el desarrollo de la producción mecanizada, dando origen a la Revolución Industrial. Las sociedades pasaron de economías basadas en la agricultura y la ganadería a modelos industriales, impulsados fundamentalmente por el carbón y, más tarde, por el petróleo. Esta transformación se extendió globalmente, reconfigurando el trabajo, la urbanización y las relaciones económicas a escala planetaria.

De forma paralela a estos cambios materiales, los avances en el pensamiento abstracto sentaron las bases de la computación moderna. Gottfried Wilhelm Leibniz propuso el sistema binario como un medio para simplificar las operaciones matemáticas, demostrando que cualquier cálculo podía reducirse a combinaciones de cero y uno. En el siglo XIX, George Boole formalizó las operaciones lógicas mediante el álgebra, estableciendo los fundamentos conceptuales de la lógica computacional. Estas ideas hicieron posible, con el tiempo, la creación de máquinas capaces de realizar cálculos rápidos y complejos.

El siglo XX representó simultáneamente un punto culminante de aceleración tecnológica y una profunda crisis ética. Dos guerras mundiales, impulsadas en parte por la competencia por recursos y poder, desplazaron a millones de personas y orientaron el conocimiento científico tanto hacia fines destructivos como constructivos. Mientras algunos descubrimientos condujeron a la creación de armas sin precedentes, otros sentaron las bases de la era tecnológica, caracterizada por la automatización, la comunicación digital y el procesamiento de la información. Alan Turing, inglés, realizó investigaciones fundamentales en la lógica matemática y la computación, siendo famoso su algoritmo validado por el llamado ―test de Turing‖ demostrando que la
―inteligencia‖ de una máquina podría igualar y superar a la de una persona.

También aquí nos gustaría destacar al húngaro Neumann János Lajos –más adelante John von Neumann-que sentó las bases matemáticas de la mecánica cuántica, desarrolló la teoría de juegos, probó que unas tarjetas perforadas podían transmitir mucha información en poco espacio. Se dice que destrozó todo un telar mecánico para comprobar esa endemoniada máquina llevada a casa por su padre, judío y banquero, aunque el muy pillo le echó la culpa a su hermano.

En este contexto surgió el Z1 de Konrad Zuse –alemán-, uno de los primeros ordenadores electromecánicos, capaz de realizar cálculos automáticos mediante un lenguaje específico para máquinas. Este desarrollo marcó la transición desde la computación teórica hacia sistemas programables de uso práctico.

En el siglo XXI, las tecnologías digitales se han integrado plenamente en la vida cotidiana. Redes de comunicación de alcance global recopilan, transmiten y procesan enormes cantidades de datos mediante algoritmos matemáticos, incrementando la eficiencia en la toma de decisiones en múltiples ámbitos. Al mismo tiempo, estos sistemas generan nuevas dependencias, especialmente en relación con las infraestructuras energéticas, lo que plantea interrogantes sobre la vulnerabilidad y la resiliencia ante posibles interrupciones a gran escala y es que se necesita mucha electricidad pero también agua para enfriar esos ordenadores cuánticos, ampliar el ancho de estas autovías por las que circula la información y que llamamos ―redes‖ y personas muy preparadas para llevar adelante estos nuevos inventos y aplicaciones, sin olvidar el dinero.
La Inteligencia Artificial representa la etapa más reciente de esta larga trayectoria. Cada vez con mayor frecuencia, los seres humanos delegan en sistemas de IA determinadas tareas cognitivas, como el reconocimiento de patrones, la predicción o la generación de contenidos. Sin embargo, la IA no posee agencia moral. No juzga por sí misma ni actúa con intención propia. Cualquier juicio o decisión que produzca refleja objetivos, valores, normas y datos definidos por los seres humanos por lo que necesitamos incrementar también nuestra formación ―humanística‖ con la misma intensidad que la tecnológica.
En consecuencia, la Inteligencia Artificial no es intrínsecamente mala o buena. Su impacto dependerá por completo del uso que la humanidad decida darle. Las intenciones cooperativas pueden dar lugar a resultados favorables , mientras que los usos perversos pueden amplificar los conflictos entre nosotros los ―humanos‖ y los ―inhumanos‖. La responsabilidad ética, por tanto, sigue recayendo de manera inequívoca en las sociedades humanas.

Comprender la IA como parte del continuo proceso histórico de la humanidad
—y no como una fuerza externa o autónoma— puede favorecer debates más informados, democráticos y responsables sobre su papel en la configuración de nuestro futuro común. Quienes formamos parte de esta gran familia de Alumni de la Universidad de Salamanca estaríamos encantados de participar en un gran congreso internacional sobre el futuro de la Inteligencia Artificial aquí en este campus de la Universidad de Salamanca que apuesta por seguir creando desarrollo tecnológico pero acompañado siempre del desarrollo humanístico.