La Polisemia de la Inteligencia Artificial Generativa
DOI:
https://doi.org/10.7346/-feis-XXIII-01-25_10Palabras clave:
Inteligencia Artificial Generativa, LLMs, Educación, Compañerismo de IA, Enseñanza de HistoriaResumen
El siguiente artículo tiene como objetivo introducir en el panorama pedagógico una crítica de la función de los LLMs, modelos de lenguaje grandes, como mediadores en las prácticas relacionales y de enseñanza. Explorará el origen y la funcionalidad de la Inteligencia Artificial Generativa y, en particular, los Modelos de Lenguaje Grandes (LLMs), que ahora se utilizan ampliamente en entornos de educación formal, no formal e informal. Tras una breve introducción teórica a los dispositivos, se presentan dos casos ilustrativos: Humy.AI y Replika. Estas dos empresas proponen el uso de un ''agente relacional'' que, a partir de un LLM específico, realiza tareas similares pero en campos muy diferentes: Humy.AI está desarrollado para implementar la enseñanza de la historia, mientras que Replika es un agente relacional, o compañero de IA, desarrollado para funcionar como un compañero virtual, capaz, por ejemplo, de escucha empática y diálogo no crítico. La crítica se basa en el hecho de que, en ambos casos, un modelo de lenguaje grande, simplemente porque puede imitar el lenguaje natural y responder eficazmente desde un punto de vista sintáctico, se convierte en un actor epistemológico y tomador de decisiones en los procesos de crecimiento de las personas en formación, al igual que lo es cuando se trata de organizar ciertos procesos cuantitativamente. Por esta razón, es urgente entender hasta qué punto, y en qué medida, un agente basado en inteligencia artificial generativa puede ser un mediador en estos procesos. Donde la investigación empírica debe identificar claramente los términos de esta revolución, es igualmente importante adoptar una posición clara y no confundir las tareas pedagógicas a las que todo educador debe responder, para evitar una delegación excesiva a algoritmos y agentes basados en inteligencia artificial generativa, como ya es el caso en ciertas áreas específicas de recursos humanos, robótica y gestión de lugares de trabajo algorítmicos.
Citas
Aresu, A. (2024). Geopolitica dell’Intelligenza Artificiale. Feltrinelli.
Avital, M., & Te’eni, D. (2009). From generative fit to generative capacity: Exploring an emerging dimension of information systems design and task performance. Information Systems Journal, 19, 345–367. https://doi.org/10.1111/j.1365-2575.2007.00291.x
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
Bravo, F. (2024). EU DATA COOPERATIVES. L’ingresso delle cooperative di dati nell’ordinamento europeo. Giappichelli.
Bridle, J. (2022). Ways of being: Beyond human intelligence. Allen Lane.
Buongiorno, F. (2024). Fenomenologia delle reti neurali. Per un concetto polisemico di intelligenza (artificiale). In M. Galletti & S. Zipoli Caiani (Eds.), Filosofia dell’Intelligenza Artificiale. Sfide etiche e teoriche (pp. 45–62). Il Mulino.
Coeckelbergh, M. (2020). AI ethics. MIT Press.
Contini, M., Fabbri, M., & Manuzzi, P. (2006). Non di solo cervello: Educare alle connessioni mente–corpo–significati–contesti. Raffaello Cortina.
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Dario, N. (2014). On the concept of generativity. Formazione & insegnamento, 12(4), 83–94. https://ojs.pensamultimedia.it/index.php/siref/article/view/1613
Dreyfus, H. L. (1972). What computers can’t do. Harper & Row.
Dreyfus, H. L. (1992). What computers still can’t do: A critique of artificial reason. MIT Press.
Esposito, E. (2024). L’intelligenza degli algoritmi. PSICHE, 2, 537–548. https://doi.org/10.7388/115432
Fabbri, M. (2022). Essere insegnanti essere genitori: La competenza comunicativa in educazione. FrancoAngeli.
Gallese, V., & Morelli, N. (2023). Cosa significa essere umani: Dialogo tra neuroscienze e filosofia. Raffaello Cortina.
Gardner, H. E. (2002). Mente e cervello: Nuove prospettive in educazione. In E. Frauenfelder & F. Santoianni (Eds.), Le scienze bioeducative: Prospettive di ricerca (pp. 177–187). Liguori.
Giaccardi, C., & Magatti, M. (2014). Generativi di tutto il mondo, unitevi! Manifesto per la società dei liberi. Feltrinelli.
Kitchin, R. (2014). Big data, new epistemologies and paradigm shifts. Big Data & Society, 1(1). https://doi.org/10.1177/20539517145284
Kurzweil, R. (2005). The singularity is near: When humans transcend biology. Penguin Books.
Ma, Z., Mei, Y., & Su, Z. (2023). Understanding the benefits and challenges of using large language model-based conversational agents for mental well-being support. AMIA Annual Symposium Proceedings, 2023, 1105–1114. https://doi.org/10.48550/arXiv.2307.15810
Maples, B., Cerit, M., & Vishwanath, A. (2024). Loneliness and suicide mitigation for students using GPT-3-enabled chatbots. npj Mental Health Research, 3, 4. https://doi.org/10.1038/s44184-023-00047-6
Margiotta, U. (2019). Editoriale. Responsabilità pedagogica e ricerca educativa: Intelligenza collaborativa, formazione dei talenti e tecnologie dell’artificiale. Formazione & insegnamento, 17(1), 13.
Marriott, H. R., & Pitardi, V. (2024). One is the loneliest number… Two can be as bad as one: The influence of AI friendship apps on users’ well-being and addiction. Psychology & Marketing, 41(1), 86–101. https://doi.org/10.1002/mar.21899
Mitchell, M. (2022). L’intelligenza artificiale. Einaudi.
Moore, P. V. (2019). The mirror for (artificial) intelligence: In whose reflection? Comparative Labor Law & Policy Journal, 41(1), 47–67. https://doi.org/10.2139/ssrn.3423704
Pasquinelli, M. (2023). The eye of the master: A social history of artificial intelligence. Verso Books.
Perrotta, C., Selwyn, N., & Ewin, C. (2024). Artificial intelligence and the affective labour of understanding: The intimate moderation of a language model. New Media & Society, 26(3), 1585–1609. https://doi.org/10.1177/14614448221075296
Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386–408. https://doi.org/10.1037/h0042519
Schüll, N. D. (2012). Addiction by design: Machine gambling in Las Vegas. Princeton University Press.
Selwyn, N. (2016). Education and technology: Key issues and debates (2nd ed.). Bloomsbury Academic.
Terranova, T. (2012). Attention, economy and the brain. Culture Machine, 13, 1–19. https://culturemachine.net/wp-content/uploads/2019/01/465-973-1-PB.pdf
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433
Vallortigara, G. (2023). Il pulcino di Kant. Adelphi.
Varela, F. J., Thompson, E., & Rosch, E. (1991). The embodied mind: Cognitive science and human experience. MIT Press.
Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. W. H. Freeman.
Wittrock, M. C. (1990). Generative processes of comprehension. Educational Psychologist, 24, 345–376. https://doi.org/10.1207/s15326985ep2404_2
Zao-Sanders, M. (2025). How people are really using Gen AI in 2025. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
Zittrain, J. L. (2006). The generative internet. Harvard Law Review, 119(7), 1974–2040. http://www.jstor.org/stable/4093608
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Descargas
Publicado
Cómo citar
Número
Sección
Categorías
Licencia
Derechos de autor 2025 Giacomo Astorri

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Formazione & insegnamento se distribuye bajo la licencia Atribución 4.0 Internacional (CC BY 4.0).
Para más detalles, por favor refiérase a nuestra Política de Repositorio y Archivo, así como a nuestros Términos de Derechos de Autor y Licencia.