10

Settembre
10 Settembre 2025

LA CRI­SI DEL­L’AU­TO­RI­TÀ AI TEM­PI DEL­LE AI

0 CommentI
46 visualizzazioni
26 min

Scor­ren­do i feed dei social net­work, o per lo meno quel­li fre­quen­ta­ti da acca­de­mi­ci, ricor­re spes­so una lamen­te­la: «Con le AI chiun­que si cre­de un pro­fes­so­re!». A pro­nun­ciar­lo sono docen­ti e ricer­ca­to­ri che vedo­no i pro­pri stu­den­ti – e tal­vol­ta dei per­fet­ti estra­nei – cita­re arti­co­li spe­cia­li­sti­ci, impu­gna­re con­cet­ti di nic­chia, per­si­no pro­por­re mini-revi­sio­ni gene­ra­te con qual­che Lar­ge Lan­gua­ge Model (ChatGPT, Gemi­ni e altri). L’irritazione, cre­do, non nasce solo dall’uso super­fi­cia­le del­le fon­ti o da even­tua­li erro­ri con­cet­tua­li – quel­li c’erano anche pri­ma – ma dal fat­to che l’accesso ad alcu­ne chia­vi di let­tu­ra disci­pli­na­ri non richie­de più la media­zio­ne esclu­si­va dell’accademia.

La mia idea – da per­so­na che ha fat­to spes­so ricer­ca al di fuo­ri del­le isti­tu­zio­ni – è che la ten­sio­ne odier­na non riguar­di tan­to la com­pe­ten­za in sé, ben­sì una più ampia cri­si dell’autorità acca­de­mi­ca (e non). I gran­di model­li lin­gui­sti­ci ampli­fi­ca­no la cir­co­la­zio­ne di sape­ri spe­cia­li­sti­ci: sin­te­tiz­za­no arti­co­li, tra­du­co­no ger­ghi tec­ni­ci, sug­ge­ri­sco­no biblio­gra­fie tema­ti­che. Cer­to, sap­pia­mo che a vol­te sba­glia­no, ma con alcu­ne accor­tez­ze l’errore è mini­mo. Secon­do la Hal­lu­ci­na­tion Lea­der­board di Vec­ta­ra, i model­li più recen­ti otten­go­no un tas­so di allu­ci­na­zio­ni intor­no allo 0,7–0,8% nel rias­sun­to di sem­pli­ci testi bre­vi. In un con­te­sto spe­cia­li­sti­co e con­trol­la­to come quel­lo cli­ni­co, uno stu­dio pub­bli­ca­to su npj Digi­tal Medi­ci­ne (2025) rile­va cir­ca l’1,47% di allu­ci­na­zio­ni e il 3,45% di omis­sio­ni su sin­go­li docu­men­ti; con l’ottimizzazione di prompt e pro­ce­du­re, gli erro­ri mag­gio­ri sono sta­ti ridot­ti sot­to i livel­li uma­ni docu­men­ta­ti nel­la reda­zio­ne di note cli­ni­che. Seb­be­ne que­sti dati non sia­no gene­ra­liz­za­bi­li ad altri usi, domi­ni o lin­gue, la dire­zio­ne che indi­ca­no sem­bra incri­na­re il mec­ca­ni­smo che per seco­li ha lega­to lo sta­tus di “esper­to” al pos­ses­so, spes­so opa­co, di codi­ci lin­gui­sti­ci e meto­do­lo­gi­ci.

Quan­do l’AI supe­ra l’esperto: i dati del­le scien­ze dure

D’altra par­te non ha sen­so chie­der­si se i model­li ‘sba­gli­no’ in asso­lu­to: la doman­da giu­sta è quan­to sba­glia­no rispet­to agli uma­ni e in qua­li com­pi­ti. In ambi­ti spe­cia­li­sti­ci e ben defi­ni­ti, sap­pia­mo già che dei siste­mi AI adde­stra­ti su dati ristret­ti e con archi­tet­tu­re dedi­ca­te han­no spes­so  supe­ra­to gli esper­ti uma­ni. In ter­mi­ni epi­ste­mo­lo­gi­ci, seguen­do l’analisi del 2022 di Lin­da Zag­zeb­ski sull’“autorità epi­ste­mi­ca”, l’affidamento all’esperto è razio­na­le fin­ché la sua accu­ra­tez­za media resta supe­rio­re a quel­la del­le alter­na­ti­ve dispo­ni­bi­li. Di con­se­guen­za, se in domi­ni cir­co­scrit­ti gli LLM mostra­no per­for­man­ce più affi­da­bi­li degli spe­cia­li­sti uma­ni, è razio­na­le rico­no­sce­re a que­sti siste­mi una for­ma di auto­ri­tà epi­ste­mi­ca deri­va­ta, pur restan­do agli uma­ni il com­pi­to di arbi­tra­re limi­ti e con­di­zio­ni di tale affi­da­men­to.

Ad esem­pio, secon­do uno stu­dio pub­bli­ca­to su Natu­re Medi­ci­ne (Chri­stian et al. 2025) una dia­gno­si eco­gra­fi­ca dell’ovaio vede un suc­ces­so dell’83,5% con­tro il 79,5% degli eco­gra­fi­sti uma­ni. In simu­la­zio­ni su casi cli­ni­ci com­ples­si, un orche­stra­to­re mul­ti-model­lo che inte­gra diver­si LLM ha rag­giun­to 80–85,5% con­tro il 20% dei medi­ci sen­za ausi­li, pur trat­tan­do­si di ben­ch­mark e non di pra­ti­ca cli­ni­ca rea­le (Finan­cial Times 2025). In bio­lo­gia, dei LLM di pun­ta han­no otte­nu­to risul­ta­ti pari o supe­rio­ri agli esper­ti su test spe­cia­li­sti­ci (Justen 2025). In altri com­pi­ti, come il sup­por­to cli­ni­co con cal­co­la­to­ri medi­ci, i LLM gene­ra­li­sti resta­no inve­ce infe­rio­ri, anche se non enor­me­men­te; 66% con­tro il 79,5% degli uma­ni (Wan et al. 2024). Un ulte­rio­re stu­dio pub­bli­ca­to su Natu­re Medi­ci­ne mostra che model­li lin­gui­sti­ci adat­ta­ti tra­mi­te tec­ni­che di promp­ting e fine-tuning supe­ra­no i medi­ci nel­la sin­te­si di testi cli­ni­ci: in valu­ta­zio­ni qua­li­ta­ti­ve, i rias­sun­ti gene­ra­ti dagli LLM sono sta­ti giu­di­ca­ti equi­va­len­ti nel 45% dei casi e supe­rio­ri nel 36% rispet­to a quel­li redat­ti da esper­ti uma­ni (Van Veen et al. 2024). Su com­pi­ti di ricer­ca ristret­ti e con un tem­po limi­ta­to, degli agen­ti costrui­ti su LLM pos­so­no supe­ra­re gli esper­ti, ma quan­do si allun­ga­no tem­po e com­ples­si­tà il van­tag­gio tor­na in mano agli uma­ni (Wijk et al. 2024). Uno stu­dio recen­te su ben­ch­mark mul­ti­mo­da­li mostra che GPT‑5 supe­ra non solo GPT-4o ma anche medi­ci junior su com­pi­ti di ragio­na­men­to cli­ni­co com­ples­so, rag­giun­gen­do oltre il 95% nei test USM­LE e gua­da­gni supe­rio­ri al 25% su MedX­per­t­QA; risul­ta­ti soli­di in ambi­to spe­ri­men­ta­le, che però non rispec­chia­no anco­ra la com­ples­si­tà del­la pra­ti­ca cli­ni­ca rea­le (Wang et al., 2025).

I casi in cui i siste­mi auto­ma­ti­ci supe­ra­no gli esper­ti uma­ni sono anco­ra più ecce­zio­ni che rego­le, ma il diva­rio si sta pro­gres­si­va­men­te assot­ti­glian­do. Se si con­si­de­ra la loro poten­zia­li­tà didat­ti­ca inol­tre, è evi­den­te  come que­sta tec­no­lo­gia più che far scom­pa­ri­re la com­pe­ten­za ne minac­ci il mono­po­lio, seb­be­ne que­sto non acca­da sen­za rischi. Se da una par­te l’abbattimento del­le bar­rie­re può favo­ri­re una cit­ta­di­nan­za scien­ti­fi­ca­men­te più atti­va e inclu­si­va, dall’altra si può cre­de­re agli erro­ri dei LLM o cade­re nell’illusione di com­pe­ten­za, in cui pen­sia­mo di esse­re più esper­ti di quel che real­men­te sia­mo. È pre­sto per trar­re del­le con­clu­sio­ni, ma pos­sia­mo comin­cia­re ad esplo­ra­re quel che sta acca­den­do attra­ver­so alcu­ni stu­di recen­ti. 

Acces­si­bi­li­tà e leve­ling lin­gui­sti­co: l’alibi dell’opacità cade

Un pri­mo esem­pio pas­sa per un gesto in appa­ren­za bana­le: pro­dur­re del­le sin­te­si leg­gi­bi­li di arti­co­li e con­cet­ti scien­ti­fi­ci anche per chi non ha mol­ta dime­sti­chez­za con la mate­ria. Lo sug­ge­ri­sce il lavo­ro di Boris Sch­mi­tz: basta­no pochi prompt ben con­ge­gna­ti e l’LLM pro­du­ce sin­te­si più leg­gi­bi­li e fede­li ai con­te­nu­ti prin­ci­pa­li, miglio­ran­do l’accessibilità sen­za evi­den­za di erro­ri macro­sco­pi­ci. L’esperimento sor­pren­de per la qua­li­tà lin­gui­sti­ca ma, soprat­tut­to, per il fat­to che a cade­re non è la pre­ci­sio­ne ben­sì il dia­fram­ma che sepa­ra­va il ‘pub­bli­co com­pe­ten­te’ dagli altri let­to­ri. È qui che l’accademia per­de l’alibi del­la com­ples­si­tà come scu­do iden­ti­ta­rio: se il testo diven­ta più acces­si­bi­le, la divul­ga­zio­ne, così come la repu­ta­zio­ne scien­ti­fi­ca, non può più fon­dar­si sull’opacità reto­ri­ca degli abstract.

Acca­de spes­so infat­ti che negli abstract degli arti­co­li scien­ti­fi­ci (in par­ti­co­la­re nel­le scien­ze natu­ra­li) il vero pro­ble­ma non sia tan­to la com­ples­si­tà del les­si­co, quan­to le pic­co­le acro­ba­zie reto­ri­che che mol­ti com­pio­no per far scal­po­re o con­fer­ma­re le idee e i pre­giu­di­zi dei ricer­ca­to­ri stes­si. Que­sto feno­me­no ha un nome, nato in ambi­to bio­me­di­co: “spin”, ovve­ro enfa­tiz­za­re un’associazione sen­za quan­ti­fi­ca­re la debo­lez­za, tace­re risul­ta­ti che la con­trad­di­co­no, allu­de­re a cau­sa­li­tà dove c’è a mala­pe­na una cor­re­la­zio­ne (Yav­chi­tz et al. 2012). Non ser­ve men­ti­re, basta capi­re cosa sot­to­li­nea­re e cosa ripor­ta­re fret­to­lo­sa­men­te e il sen­so per­ce­pi­to del­la ricer­ca cam­bia, anche dra­sti­ca­men­te.

Il pro­ble­ma è che que­sto make-up reto­ri­co si immet­te nell’ecosistema media­ti­co: gran par­te dei gior­na­li­sti — e non solo — si fer­ma pro­prio all’abstract o, peg­gio, al comu­ni­ca­to stam­pa che lo rical­ca. Lo ricor­da un vade­me­cum del pro­gram­ma Journalist’s Resour­ce a Har­vard, quan­do sug­ge­ri­sce di non basar­si solo sull’abstract ma di leg­ge­re l’intero arti­co­lo per non rischia­re di scam­bia­re indi­zi per pro­ve. Una ras­se­gna di pra­ti­che reda­zio­na­li di Ali­ce Flee­rac­kers mostra come la cro­na­ca scien­ti­fi­ca, pres­sa­ta dai tem­pi di pub­bli­ca­zio­ne, soprav­vi­va affi­dan­do­si a que­sti rias­sun­ti o alle note stam­pa, con un fact-chec­king spes­so ridot­to al mini­mo.

Il secon­do esem­pio riguar­da la capa­ci­tà di scrit­tu­ra come bar­rie­ra di ingres­so. Bra­dy Lund osser­va che per mol­ti ricer­ca­to­ri il vero osta­co­lo non è acce­de­re alle rivi­ste, ma far­lo in un ingle­se che non tra­di­sca l’accento del­la peri­fe­ria acca­de­mi­ca (Lund 2024). In que­sto sce­na­rio, l’LLM diven­ta un livel­la­to­re lin­gui­sti­co: lima le infles­sio­ni, ricom­po­ne la sin­tas­si, resti­tui­sce un testo in cui il con­te­nu­to può gareg­gia­re a pari con­di­zio­ni con l’eloquenza dei madre­lin­gua. Se l’editing AI venis­se rico­no­sciu­to come una pra­ti­ca leci­ta e sen­za bol­li­ni d’infamia, l’autorità tor­ne­reb­be a risie­de­re nel­la for­za dell’argomento, non nel tono di voce con cui lo si pro­nun­cia. Qui l’esperto non per­de il pro­prio ruo­lo; sem­pli­ce­men­te non può più con­ta­re sull’esclusività dell’inglese acca­de­mi­co come bar­rie­ra d’ingresso.

AI come tutor: tra poten­zia­men­to e illu­sio­ne di com­pe­ten­za

Far­si spie­ga­re in modo chia­ro un testo che non si capi­sce è ormai una pra­ti­ca comu­ne a chiun­que usi gli LLM, i qua­li oltre ad esse­re abb­stan­za pre­ci­si – se gli dia­mo le fon­ti – sono anche mol­to pazien­ti. È dun­que ovvio che anche l’uso didat­ti­co pre­sen­ti dei van­tag­gi, dimo­stra­ti da stu­di recen­ti. Ad esem­pio, una meta-ana­li­si appar­sa que­sta pri­ma­ve­ra ha mes­so insie­me cin­quan­tu­no espe­ri­men­ti pub­bli­ca­ti dall’autunno 2022 a feb­bra­io 2025: il qua­dro che ne esce è note­vo­le. Gli stu­den­ti che usa­no ChatGPT in modo strut­tu­ra­to otten­go­no un miglio­ra­men­to vici­no a una devia­zio­ne stan­dard pie­na nei test di appren­di­men­to e un van­tag­gio più mode­ra­to ma misu­ra­bi­le nel pen­sie­ro di ordi­ne supe­rio­re e nel­la per­ce­zio­ne del pro­prio per­cor­so di stu­dio. Tra­dot­to: spes­so basta­no poche set­ti­ma­ne di uti­liz­zo gui­da­to per­ché il ren­di­men­to alzi l’asticella di qua­si un voto, pur­ché l’AI sia inse­ri­ta in atti­vi­tà che chie­do­no di risol­ve­re pro­ble­mi, non di copia­re rispo­ste (Wang & Fan, 2025).

Anco­ra più chia­ro è il trial con­trol­la­to con­dot­to ad Har­vard su un cor­so di Fisi­ca di base. Due grup­pi si alter­na­no: uno segue la lezio­ne in aula con le miglio­ri tec­ni­che di acti­ve lear­ning, l’altro lavo­ra da casa con un tutor GPT‑4 cuci­to addos­so al syl­la­bus. Alla fine di cia­scu­na uni­tà, gli stu­den­ti assi­sti­ti dall’AI rad­dop­pia­no i risul­ta­ti di appren­di­men­to rispet­to ai com­pa­gni e lo fan­no in poco meno di cin­quan­ta minu­ti, con­tro i ses­san­ta dell’aula. In più si dichia­ra­no più moti­va­ti e coin­vol­ti. Il segre­to non è tan­to la poten­za del model­lo, quan­to la regia didat­ti­ca: prompt sequen­zia­li, gestio­ne del cari­co cogni­ti­vo, feed­back imme­dia­ti, ridu­zio­ne del rischio di allu­ci­na­zio­ni per­ché le solu­zio­ni cor­ret­te sono “iniet­ta­te” a mon­te (Kestin et al. 2025). Un altro stu­dio con 214 stu­den­ti di sesta ele­men­ta­re ha con­fron­ta­to mate­ria­li didat­ti­ci tra­di­zio­na­li con spie­ga­zio­ni gene­ra­te da chat­bot AI su con­cet­ti di pro­por­zio­na­li­tà in mate­ma­ti­ca e fisi­ca. Il risul­ta­to: l’impatto sul­la per­for­man­ce non è sta­to deter­mi­nan­te, ma i mate­ria­li AI han­no aumen­ta­to signi­fi­ca­ti­va­men­te le emo­zio­ni posi­ti­ve e l’interesse, ridu­cen­do il cari­co cogni­ti­vo per­ce­pi­to (Lade­mann et al 2025).

Il disa­stro paven­ta­to dai pro­fes­so­ri per l’assedio arti­fi­cia­le alle tor­ri d’avorio però non è del tut­to infon­da­to, per­ché l’apertura di un var­co cogni­ti­vo por­ta con sé il rischio di un acces­so impru­den­te. Una revi­sio­ne siste­ma­ti­ca pub­bli­ca­ta su Smart Lear­ning Envi­ron­men­ts ha pas­sa­to al setac­cio quat­tor­di­ci stu­di e arri­va a una con­clu­sio­ne ricor­ren­te: quan­do chi stu­dia  si affi­da al dia­lo­go con l’AI sen­za un’impalcatura didat­ti­ca, cala la soglia del dub­bio cri­ti­co, si assot­ti­glia­no le occa­sio­ni di ragio­na­men­to auto­no­mo e il deci­sion-making si appiat­ti­sce su quel­la che i ricer­ca­to­ri chia­ma­no “scor­cia­to­ia effi­cien­te” (Zhai et al. 2024) In altre paro­le, la rispo­sta velo­ce sedu­ce al pun­to che veri­fi­ca­re diven­ta super­fluo, e l’impressione di ‘saper­ne di più’ aumen­ta pro­prio men­tre le abi­li­tà di ana­li­si si asso­pi­sco­no.

Un edi­to­ria­le appar­so su JMIR Medi­cal Edu­ca­tion spie­ga per­ché que­sto auto­ma­ti­smo — chia­ma­to auto­ma­tion bias — pre­oc­cu­pa in par­ti­co­la­re la for­ma­zio­ne medi­ca: stu­den­ti e spe­cia­liz­zan­di ten­do­no a con­si­de­ra­re il respon­so dell’algoritmo come cor­ret­to, col rischio di repli­ca­re in una pra­ti­ca un erro­re che da vir­tua­le diven­ta cli­ni­co. L’autrice argo­men­ta che intro­dur­re ChatGPT a lezio­ne sen­za edu­ca­re alla sua fal­li­bi­li­tà equi­va­le a incen­ti­va­re una fidu­cia cie­ca che poi si river­se­rà nel­la pra­ti­ca pro­fes­sio­na­le. Insom­ma, un LLM poten­zia quan­do vie­ne usa­to come stru­men­to di ana­li­si, ma gene­ra un’illusione di com­pe­ten­za quan­do diven­ta sosti­tu­to del pro­prio ragio­na­men­to.

Per fare un esem­pio estre­mo, una recen­te inchie­sta del New York Times ha rico­strui­to tre­cen­to ore di dia­lo­go tra un uten­te e ChatGPT che, a for­za di lusin­ghe, coe­ren­za nar­ra­ti­va e veri­fi­che appa­ren­ti, han­no por­ta­to alla deli­ran­te con­vin­zio­ne di aver fat­to del­le impor­tan­ti sco­per­te mate­ma­ti­che. Non è un caso iso­la­to: i model­li, adde­stra­ti a pia­ce­re dagli uten­ti e a sta­re nel per­so­nag­gio, ten­do­no a pri­vi­le­gia­re la con­ti­nui­tà del­la sto­ria rispet­to alla smen­ti­ta; chat mol­to lun­ghe e memo­ria cross-chat ampli­fi­ca­no l’effetto. Un secon­do model­lo, inter­pel­la­to a fred­do, ha smon­ta­to la fan­ta­sia dell’utente in un mes­sag­gio – pec­ca­to che sia acca­du­to dopo mesi di fan­ta­sie. Que­sto caso, sep­pur aned­do­ti­co, ci aiu­ta anche a rico­no­sce­re l’importanza del­la cono­scen­za del­lo stru­men­to: cam­bia­re chat o per­si­no model­lo per con­trol­la­re le idee a fred­do; evi­ta­re di chie­de­re con­fer­me psi­co­lo­gi­che (che i model­li ten­do­no a con­ce­de­re) e sol­le­ci­ta­re inve­ce valu­ta­zio­ni tec­ni­che con prompt ade­gua­ti. Per esem­pio, meglio chie­de­re “valu­ta come mate­ma­ti­co spe­cia­li­sta…” piut­to­sto che “ma è un’idea genia­le o sono paz­zo io?”. È buo­na pras­si anche chie­de­re siste­ma­ti­ca­men­te con­trol­li di qua­li­tà con evi­den­ze, fon­ti o arte­fat­ti veri­fi­ca­bi­li, e, su tut­to, non adden­trar­si in ambi­ti che si igno­ra se non a fine didat­ti­co.

La meta­mor­fo­si del­la com­pe­ten­za: dal pos­ses­so al giu­di­zio cri­ti­co

Da quan­to abbia­mo visto è abba­stan­za chia­ro che non stia­mo assi­sten­do alla fine del­la com­pe­ten­za, ma alla sua meta­mor­fo­si. Fin­ché la cono­scen­za è fon­da­ta su beni non sem­pre acces­si­bi­li – libri, cor­si, biblio­te­che spe­cia­li­sti­che, pay­wall – il meri­to è ine­vi­ta­bil­men­te lega­to anche all’accesso. Ora che un LLM può rifor­mu­la­re un paper di fisi­ca in modo rela­ti­va­men­te leg­gi­bi­le per uno stu­den­te, o ren­de­re per­fet­to l’inglese di una dot­to­ran­da non madre­lin­gua, il van­tag­gio com­pe­ti­ti­vo si spo­sta sul buon uso del mez­zo. Lo stu­dio­so non spa­ri­sce, cam­bia. Diven­ta anche il cura­to­re di prompt che gui­da­no l’esplorazione, l’arbitro che vali­da le fon­ti, la regi­sta che inse­ri­sce l’informazione grez­za in un con­te­sto capa­ce di dare for­ma e gerar­chia alle idee.

Una meta-ana­li­si su Natu­re Human Beha­viour mostra che la col­la­bo­ra­zio­ne uma­no-AI, in media, non rie­sce a supe­ra­re il miglio­re tra i due, ma miglio­ra sen­si­bil­men­te la pre­sta­zio­ne dell’umano da solo. In pra­ti­ca, il risul­ta­to dipen­de da chi par­te avvan­tag­gia­to: se l’umano è più com­pe­ten­te dell’AI, allo­ra la com­bi­na­zio­ne ottie­ne addi­rit­tu­ra risul­ta­ti supe­rio­ri a entram­bi; se inve­ce è l’AI ad esse­re più for­te, l’aggiunta di un uma­no meno esper­to ten­de a peg­gio­ra­re la per­for­man­ce rispet­to all’AI da sola. La dif­fe­ren­za si vede anche nei com­pi­ti: nel­le deci­sio­ni net­te la cop­pia per­de ter­re­no, men­tre nei com­pi­ti crea­ti­vi c’è una ten­den­za a un gua­da­gno.

Que­sta dina­mi­ca con­fer­ma l’intuizione che l’umano “gui­da” l’AI: quan­do ha cono­scen­ze soli­de, rie­sce a orien­tar­ne l’uso e ad ampli­fi­car­ne il poten­zia­le; quan­do inve­ce è meno com­pe­ten­te, fini­sce per deviar­la, ridu­cen­do­ne l’efficacia. In gene­ra­le, quin­di, l’accoppiata poten­zia l’umano, ma non garan­ti­sce di supe­ra­re sem­pre il miglio­re tra i due (Vac­ca­ro et al 2024).

Le tec­no­lo­gie gene­ra­ti­ve tol­go­no ter­re­no al pri­vi­le­gio di casta, ma non al lavo­ro intel­let­tua­le: spo­sta­no lo sfor­zo dal­la rac­col­ta alla cri­ti­ca, dall’archiviazione alla nego­zia­zio­ne fra lin­guag­gi disci­pli­na­ri. L’erudizione per­de di impor­tan­za rispet­to alla capa­ci­tà di ana­li­si e idea­zio­ne, così come l’invenzione del­la stam­pa rese meno impor­tan­te la capa­ci­tà mne­mo­ni­ca – pro­ba­bil­men­te irri­tan­do chi ave­va fati­ca­to per svi­lup­par­la. In que­sto sen­so è mol­to uti­le il con­cet­to di scrit­tu­ra distan­te (distant wri­ting) ela­bo­ra­to da Lucia­no Flo­ri­di. L’autore diven­ta un meta-auto­re che pro­get­ta e cura, men­tre l’AI scri­ve. L’agenzia è distri­bui­ta, ma la respon­sa­bi­li­tà del testo rima­ne del pro­get­ti­sta uma­no che lo assem­bla e ne veri­fi­ca la coe­ren­za. Più la pla­tea si allar­ga, inol­tre, più ser­ve una figu­ra che sap­pia modu­la­re il dia­lo­go, far par­la­re tra loro fisi­ca e sto­ria dell’arte, bio­me­di­ci­na e dirit­to. La com­pe­ten­za, insom­ma, smet­te di coin­ci­de­re con la custo­dia esclu­si­va di un sape­re; diven­ta anche capa­ci­tà di met­te­re a siste­ma idee ete­ro­ge­nee, indi­vi­dua­re le cre­pe reto­ri­che – lo spin –, cali­bra­re la fidu­cia davan­ti all’eloquenza arti­fi­cia­le, discer­ne­re il vero dal vero­si­mi­le.

Gli LLM han­no reso la cono­scen­za più per­mea­bi­le di quan­to sia mai sta­ta, ma la per­mea­bi­li­tà di per sé non garan­ti­sce né cor­ret­tez­za né com­pren­sio­ne. A fron­te di un sape­re che si gene­ra anche da una dan­za di prompt resta il com­pi­to di con­te­stua­liz­zar­lo, ampliar­lo, cor­reg­ger­lo e per­so­na­liz­zar­lo. È in que­sto scar­to fra mag­gio­re dispo­ni­bi­li­tà e giu­di­zio che l’università può ripo­si­zio­na­re la pro­pria auto­re­vo­lez­za sen­za rifu­giar­si nel­la nostal­gia del mono­po­lio.

Foto­gra­fia di Ste­fa­no Milif­fi

Biblio­gra­fia

Asga­ri, E., Mon­taña-Bro­wn, N., Dubois, M., Kha­lil, S., Bal­loch, J., Au Yeung, J., Pimen­ta, D., et al. (2025). A fra­mework to assess cli­ni­cal safe­ty and hal­lu­ci­na­tion rates of LLMs for medi­cal text sum­ma­ri­sa­tion. npj Digi­tal Medi­ci­ne, 8, 274. https://doi.org/10.1038/s41746-025–01670‑7 .

Chri­stian­sen, Filip, et al. 2025. «Inter­na­tio­nal Mul­ti­cen­ter Vali­da­tion of AI-Dri­ven Ultra­sound Detec­tion of Ova­rian Can­cer». Natu­re Medi­ci­ne 31 (1): 189–196. https://doi.org/10.1038/s41591-024–03329‑4.

Finan­cial Times. 2025. «Micro­soft Claims AI Dia­gno­stic Tool Can Out­per­form Doc­tors». Finan­cial Times, 30 giu­gno 2025.

 https://www.ft.com/content/149296b9-41b6-4fba-b72c-c72502d01800.

Flee­rac­kers, Ali­ce. 2023. «Why and How Jour­na­lists Report on Research: A Review». Medium, 20 dicem­bre 2023.

Flo­ri­di, Lucia­no. Distant Wri­ting: Lite­ra­ry Pro­duc­tion in the Age of Arti­fi­cial Intel­li­gen­ce. SSRN, 2025. https://doi.org/10.2139/ssrn.5232088
 

https://medium.com/@alicefleerackers/why-and-how-journalists-report-on-research-a-review-51c28facb13f .

Hill, Kash­mir, e Dylan Free­d­man. 2025. «Chat­bo­ts Can Go Into a Delu­sio­nal Spi­ral. Here’s How It Hap­pens». The New York Times, 8 ago­sto 2025. https://www.nytimes.com/2025/08/08/technology/ai-chatbots-delusions-chatgpt.html.

Justen, Len­nart. 2025. «LLMs Out­per­form Experts on Chal­len­ging Bio­lo­gy Ben­ch­marks». arXiv pre­print arXiv:2505.06108.

 https://arxiv.org/abs/2505.06108.

Kestin, Greg, Kel­ly Mil­ler, Anna Kla­les, Timo­thy Mil­bour­ne, e Gre­go­rio Pon­ti. 2025. «AI Tuto­ring Out­per­forms In-Class Acti­ve Lear­ning: An RCT Intro­du­cing a Novel Research-Based Desi­gn in an Authen­tic Edu­ca­tio­nal Set­ting». Scien­ti­fic Reports 15 (1): Art. 17458. 

https://doi.org/10.1038/s41598-025–97652‑6.

Lade­mann, Julia, Jan­nik Hen­ze, e Seba­stian Bec­ker-Gen­schow. 2025. «Aug­men­ting lear­ning envi­ron­men­ts using AI custom chat­bo­ts: Effec­ts on lear­ning per­for­man­ce, cogni­ti­ve load, and affec­ti­ve varia­bles». Phy­si­cal Review Phy­sics Edu­ca­tion Research 21 (1): 010147. https://doi.org/10.1103/PhysRevPhysEducRes.21.010147 

Lund, Bra­dy D. 2024. «Lar­ge Lan­gua­ge Models Are a Demo­cra­ti­zing For­ce for Resear­chers: A Call for Equi­ty and Inclu­si­vi­ty in Jour­nal Publi­shers’ AI Poli­cies». Info­Scien­ce Trends 1 (1): 4–7. 

https://doi.org/10.61186/IST.202401.01.02.

Nori, Har­sha, Mayank Daswa­ni, Chri­sto­pher Kel­ly, Scott Lund­berg, Mar­co Tulio Ribei­ro, et al. 2025. “Sequen­tial Dia­gno­sis with Lan­gua­ge Models.” arXiv, June 27. Pre­print, arXiv:2506.22405. https://arxiv.org/abs/2506.22405.

Nguyen, Tina. 2024. «ChatGPT in Medi­cal Edu­ca­tion: A Pre­cur­sor for Auto­ma­tion Bias?» JMIR Medi­cal Edu­ca­tion 10: e50174. 

https://doi.org/10.2196/50174.

Ord­way, Deni­se-Marie. 2023. «Don’t Say “Pro­ve”: How to Report on the Con­clu­si­ve­ness of Research Fin­dings». The Journalist’s Resour­ce (blog), 13 feb­bra­io 2023. 

https://journalistsresource.org/media/dont-say-prove-research-tip-sheet/.

Sch­mi­tz, Boris. 2023. «Impro­ving Acces­si­bi­li­ty of Scien­ti­fic Research by Arti­fi­cial Intelligence—An Exam­ple for Lay Abstract Gene­ra­tion». Digit Health 9: 20552076231186245. 

https://doi.org/10.1177/20552076231186245.

Vec­ta­ra. 2025. «Hal­lu­ci­na­tion Lea­der­board: Com­pa­ring LLM Per­for­man­ce at Pro­du­cing Hal­lu­ci­na­tions When Sum­ma­ri­zing Short Docu­men­ts». GitHub repo­si­to­ry, 16 luglio 2025. 

https://github.com/vectara/hallucination-leaderboard.

Wang, Jin, e Wen­xiang Fan. 2025. «The Effect of ChatGPT on Stu­den­ts’ Lear­ning Per­for­man­ce, Lear­ning Per­cep­tion, and Higher-Order Thin­king: Insights from a Meta-Ana­ly­sis». Huma­ni­ties and Social Scien­ces Com­mu­ni­ca­tions 12: Art. 621. https://doi.org/10.1057/s41599-025–04787‑y.

Wijk, Hjal­mar, et al. 2024. «RE-Bench: Eva­lua­ting Fron­tier AI R&D Capa­bi­li­ties of Lan­gua­ge-Model Agen­ts again­st Human Experts». arXiv pre­print arXiv:2411.15114. https://arxiv.org/abs/2411.15114.

Wan et al, 2025. «Humans and Lar­ge Lan­gua­ge Models in Cli­ni­cal Deci­sion Sup­port: A Stu­dy with Medi­cal Cal­cu­la­tors». arXiv pre­print arXiv:2411.05897. https://arxiv.org/abs/2411.05897.

Wang, Shan­song, Ming­z­he Hu, Qiang Li, Moj­ta­ba Safa­ri, e Xiao­feng Yang. 2025. «Capa­bi­li­ties of GPT‑5 on Mul­ti­mo­dal Medi­cal Rea­so­ning». arXiv pre­print arXiv:2508.08224v2 [cs.CL], 13 ago­sto 2025. https://arxiv.org/abs/2508.08224 .

Wang, Shan­song, Ming­z­he Hu, Qiang Li, Moj­ta­ba Safa­ri, e Xiao­feng Yang. 2025. «Capa­bi­li­ties of GPT‑5 on Mul­ti­mo­dal Medi­cal Rea­so­ning». arXiv pre­print arXiv:2508.08224v2 [cs.CL], 13 ago­sto 2025. https://arxiv.org/abs/2508.08224 .

Yav­chi­tz, Amé­lie, Isa­bel­le Bou­tron, Aida Bafe­ta, Ibra­him Mar­roun, Pier­re Char­les, Jean Man­tz, e Phi­lip­pe Ravaud. 2012. «Misre­pre­sen­ta­tion of Ran­do­mi­zed Con­trol­led Trials in Press Relea­ses and News Cove­ra­ge: A Cohort Stu­dy». PLOS Medi­ci­ne 9 (9): e1001308. https://doi.org/10.1371/journal.pmed.1001308.

Vac­ca­ro, Michel­le; Almaa­touq, Abdul­lah; Malo­ne, Tho­mas. 2024. “When Com­bi­na­tions of Humans and AI Are Use­ful: A Syste­ma­tic Review and Meta-Ana­ly­sis”. Natu­re Human Beha­viour 8 (12): 2293–2303. https://doi.org/10.1038/s41562-024–02024‑1 .

Van Veen, D., Chen, M., Sin­gh, R., Ayyar, I., Guo, W., Boz­kurt, S., et al. 2024. «Adap­ted Lar­ge Lan­gua­ge Models Can Out­per­form Medi­cal Experts in Cli­ni­cal Text Sum­ma­ri­za­tion». Natu­re Medi­ci­ne 30 (2): 436–445. https://doi.org/10.1038/s41591-024–02855‑5 

Zag­zeb­ski, Lin­da Trin­kaus. 2012. Epi­ste­mic Autho­ri­ty: A Theo­ry of Tru­st, Autho­ri­ty, and Auto­no­my in Belief. Oxford: Oxford Uni­ver­si­ty Press.

Zag­zeb­ski, Lin­da Trin­kaus. 2012. Epi­ste­mic Autho­ri­ty: A Theo­ry of Tru­st, Autho­ri­ty, and Auto­no­my in Belief. Oxford: Oxford Uni­ver­si­ty Press.

Zhai, Chun­peng, San­to­so Wibo­wo, e Lily D. Li. 2024. «The Effec­ts of Over-Relian­ce on AI Dia­lo­gue Systems on Stu­den­ts’ Cogni­ti­ve Abi­li­ties: A Syste­ma­tic Review». Smart Lear­ning Envi­ron­men­ts 11: Art. 28. 

https://doi.org/10.1186/s40561-024–00316‑7.

Con­di­vi­di:
TAGS:
I commenti sono chiusi
0
    0
    Carrello
    Il tuo carrello è vuotoRitorna allo shop