LLMorfismo: quando gli esseri umani arrivano a vedersi come modelli linguistici. L'articolo di Valerio Capraro su Computer e società
LLMorfismo è la convinzione distorta che la cognizione umana funzioni come un grande modello linguistico. Sostengo che l’aumento degli LLM conversazionali potrebbe rendere questo pregiudizio sempre più disponibile psicologicamente. Quando i sistemi artificiali producono un linguaggio simile a quello umano, le persone possono trarre un’inferenza inversa: se gli LLM possono parlare come gli esseri umani, forse gli esseri umani pensano come gli LLM. Questa inferenza è distorta perché la somiglianza a livello di output linguistico non implica somiglianza nell’architettura cognitiva. Tuttavia, l'LLMorfismo può diffondersi attraverso due meccanismi: il trasferimento analogico, mediante il quale le caratteristiche degli LLM vengono proiettate sugli esseri umani, e la disponibilità metaforica, mediante la quale il vocabolario degli LLM diventa un vocabolario culturalmente saliente per descrivere il pensiero. Distinguo LLMorfismo da meccanomorfismo, antropomorfismo, computazionalismo, disumanizzazione, oggettivazione,e teorie dell'elaborazione predittiva della mente. Ne delineo le implicazioni per il lavoro, l’istruzione, la responsabilità, l’assistenza sanitaria, la comunicazione, la creatività e la dignità umana, discutendo anche le condizioni al contorno e le forme di resistenza. Concludo che al dibattito pubblico potrebbe mancare metà del problema: la questione non è solo se attribuiamo troppa mente alle macchine, ma anche se stiamo cominciando ad attribuire troppo poca mente agli esseri umani. ma anche se stiamo cominciando ad attribuire troppo poca mente agli esseri umani. ma anche se stiamo cominciando ad attribuire troppo poca mente agli esseri umani.