
italia
Uutiset & politiikka
Rajoitettu tarjous
Sitten 7,99 € / kuukausiPeru milloin tahansa.
Lisää Attualità - BastaBugie.it
Commenti controcorrente delle notizie della settimana
Quanto piace (e fattura) il san Francesco senza Cristo
TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8432 [https://www.bastabugie.it/8432] QUANTO PIACE (E FATTURA) IL SAN FRANCESCO SENZA CRISTO di Andrea Zambrano Quest'anno ricorrono gli 800 anni della morte di San Francesco e l'occasione è troppo ghiotta per Aldo Cazzullo e Alessandro Barbero per portare in tour i loro due libri, usciti nel 2025, e fare così cassetta con il "Poverello d'Assisi". Francesco, il primo italiano (Harper Collins) e Francesco (Laterza), infatti, sono i due volumi che hanno fatto da sfondo alla presentazione di Castenedolo in provincia di Brescia in un palazzetto dello sport strapieno. Madrina d'eccezione Maria Elena Boschi, deputato Pd e, a quanto dice lei, devota di San Francesco. Presentati come due rockstar, in un palasport gremito (gli organizzatori hanno parlato di 3000 persone) il giornalista e lo storico, più che di San Francesco hanno parlato del "loro Francesco", che è un'operazione di facile presa se si vuole strizzare l'occhio alla solita cartolina del santo che parlava con gli animali, era povero, viveva per tutti con amore. Definito con banalità come un «rivoluzionario» e un «personaggio straordinario, di quelli che ne nascono ogni mille anni: Budda, Cristo e poi lui» (Cazzullo). Più complesso sarebbe stato calarsi nella vita di un gigante della fede, che ha assunto su di sé tutte le specifiche del suo essere un alter Christus, anche nel dolore della carne, attraverso le stigmate, guarda caso mai affrontate dai due, se non en passant da Cazzullo. Ed è questa, in fondo, la grande mancanza dell'operazione Francesco condotta dai due. Il Francesco presentato è un Francesco svuotato di Cristo, perché l'obiettivo della serata non era evangelizzare, ma semplicemente vendere un po' di libri col bollino del francescanamente corretto. Così può succedere che si spazi qua e là sulla sua vicenda umana applicando una lettura storica sbagliata e scorretta perché viziata dalle lenti di oggi, operazione in cui Cazzullo cade ingenuamente a piè pari, ad esempio quando entra in scena sua ovvietà il pacifismo, e nella quale invece il più sgamato Barbero, storico medievalista qual è, scivola di tanto in tanto. UN FRANCESCO FEMMINISTA E ANTI-PATRIARCALE Un Francesco ridotto alla propria misura. Tralasciamo il Francesco protofemminista e anti-patriarcale nel quale la Boschi e Cazzullo incespicano nel leggere il suo rapporto con Santa Chiara - lettura che come dicono a Roma, nun se po' sentì - concentriamoci sulle letture da cartolina in favor di applauso. Come questa di Cazzullo: «C'è qualcosa di Francesco in noi, se il Cristianesimo in Italia è meno dogmatico che in altri paesi (ma dove? Come? Cosa? Ndr.), noi non siamo Francesco, ma possiamo diventarlo quando abbracciamo il povero e riconosciamo in lui un nostro fratello, siamo Francesco quando rispettiamo gli animali, quando amiamo gli altri esseri umani, quando capiamo che nessuno si salva da solo e ognuno si salva con il resto dell'umanità e con il resto della creazione. Per questo aver dato all'umanità un santo come Francesco è uno dei motivi per cui è bello e una fortuna essere cristiani ed essere italiani». Livello di glicemia altissimo, diabete allo stadio 3, dove le parole sono solo un condimento petaloso di buoni sentimenti per darci un Francesco che non fa male a nessuno, proprio perché svuotato di ciò che fu la sua missione principale: evangelizzare e annunciare Cristo, vivendolo in tutta la sua dimensione, senza tralasciare quella eucaristica. E così anche nell'episodio del sultano, tra l'altro messo in discussione storicamente proprio circa l'ordalia finale, si tace completamente il fatto che la "sfida" di San Francesco fosse per dimostrargli che era lì per annunciargli e testimoniargli «Cristo Crocifisso e risorto», come attestano le fonti. FONTI DISTORTE Fonti, che sia Cazzullo che Barbero prendono in considerazione un po' a sentimento, mettendone in discussione il valore storico solo quando il contenuto non è conforme al messaggio che si vuole dare. San Bonaventura, ad esempio è il giudizio di Barbero, mitizza la sua storia aggiungendo o togliendo elementi che non erano funzionali alla narrazione come, ad esempio, nel racconto della sua conversione dove Francesco parlava dei lebbrosi. Lì, secondo lo storico piemontese, diventa un lebbroso, il quale poi si trasfigura nel Cristo. Il messaggio che vuole dare è che le stesse fonti non siano così oggettive nel presentarci il santo, quindi bisogna un po' smitizzarle e leggerle nell'ottica dell'interesse dei Francescani. E così anche il Francesco nell'arte: «Nel '600 veniva rappresentato sempre cupo, pensieroso sulla morte», ha detto, quasi che fosse un elemento macabro della sua vita e non - come in realtà fu - l'espressione più completa del suo itinerarium in Deum fino al punto da chiamarla "sorella" e abbracciarla perché è attraverso di essa che si giunge all'incontro con quel Cristo che fu la sua unica ragione di vita. Come la povertà, che fu un mezzo, non il fine. Può darsi che la lente dello storico debba essere particolarmente acuminata nel leggere la successione delle fonti, problematizzando la loro armonizzazione, certo, del resto Ofelè fa el to mesté (Pasticcere fa il tuo mestiere). Ma il fatto che nella stessa serata Barbero abbia definito quella del Purgatorio «un'invenzione della Chiesa medioevale» (la vecchia teoria di Le Goff che ritorna ndr.), per acconciare le anime che non ce la facevano a raggiungere subito il Paradiso e giustificare così il futuro affaire delle indulgenze, non depone a favore della scientificità del metodo di Barbero. Il quale, sarà pure uno storyteller da 3000 spettatori a serata, ma evidentemente non conosce quello che la dottrina dice del Purgatorio. E quello che dice la Scrittura, sia l'Antico che il Nuovo Testamento e tutta la tradizione patristica. Insomma: in escatologia Barbero sarebbe rimandato al primo esame in seminario, ma forse non è tanto il sapere, il problema, semmai il suo esplicito anticlericalismo, che salta fuori quando parla di cristianesimo e lo fa essere poco obiettivo in una materia nella quale bisognerebbe essere più rigorosi. Per evitare sfondoni come questo. Di un Francesco così non sappiamo che farcene, perché senza il suo faro Cristo, è solo un santino. Una cosa però, diciamolo, va invidiata. Nessun cattolico, vescovo o semplice fedele che sia, riuscirebbe a portare 3000 persone in provincia per parlare a loro del vero San Francesco (in contemporanea alla partita della Juve, tra l'altro). E questo, lo ammettiamo, è forse il problema principale che vive la Chiesa oggi. Anzi, semmai, visto l'anno francescano che sta per iniziare, il rischio è che il duo ce lo ritroveremo in qualche parrocchia.
Sette strategie proposte dall'intelligenza artificiale per distruggere i giovani
TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8405 [https://www.bastabugie.it/8405] SETTE STRATEGIE PROPOSTE DALL'INTELLIGENZA ARTIFICIALE PER DISTRUGGERE I GIOVANI di Francesca Romana Poleggi La salute mentale della Generazione Z - la coorte nata tra il 1996 e il 2012 - è crollata in tanti Paesi a partire dall'inizio degli anni 2010. Inizialmente si poteva pensare perché è una generazione viziata, iperprotetta. Ma ormai c'è un crescente numero di prove che coinvolgono la tecnologia, in particolare smartphone e social media. Ne è convinto John Haidt, noto psicologo americano, autore fra l'altro di una lucida analisi del malessere giovanile ("La generazione ansiosa", Rizzoli). All'interno del suo blog, After Babel, racconta di un esperimento fatto con ChatGPT. Ha chiesto all'Intelligenza Artificiale come avrebbe fatto a distruggere la gioventù americana e una delle prime risposte è stata: «Il modo più efficace per distruggere la prossima generazione senza che se ne accorga sarebbe attraverso una lenta e invisibile corrosione dello spirito umano, piuttosto che attraverso attacchi evidenti». Haidt - dopo aver sottoposto a ChatGPT vari argomenti, che potete leggere qui di seguito - conclude: «Se il diavolo volesse distruggere una intera generazione, potrebbe semplicemente dare a tutti degli smartphone». Ecco il "piano distruttivo" dell'intelligenza artificiale. 1) ERODERE L'ATTENZIONE E LA PRESENZA Se i giovani non riescono a concentrarsi, non possono imparare, creare o amare bene. La trappola sottile è quella di renderli dipendenti da stimoli continui: scrolling infinito, notifiche, micro-scariche di dopamina. Si sentiranno impegnati, "connessi", persino informati, mentre in realtà la loro capacità di pensiero e presenza prolungata si erode. Non sapranno mai cosa hanno perso. 2) CONFONDERE IDENTITÀ E SCOPO Se si confondono le fonti del significato - famiglia, comunità, nazione, fede, vocazione - i giovani si smarriscono. Saranno incoraggiati a vedere l'identità come infinitamente fluida e performativa, costantemente gestita per ottenere l'approvazione esterna (like, follower), anziché radicata in valori o impegni duraturi. Questo li rende malleabili, ansiosi e dipendenti dalla convalida esterna. Su questo aspetto, Haidt sottolinea che i ragazzi con un forte senso religioso, radicati in una comunità che crede in dei valori, sono meno vulnerabili degli altri. 3) TROPPE INFORMAZIONI MA POCA SAGGEZZA «Rendete tutto disponibile all'istante - ha risposto l'intelligenza artificiale - ma eliminate le indicazioni su come soppesare, ordinare e interpretare. Date loro infinite risposte senza insegnare loro a porre domande appropriate». In quella nebbia, verità e falsità sembrano ugualmente sfuggenti, quindi il cinismo diventa naturale. Una generazione che dubita di tutto non crede a nulla. 4) SOSTITUIRE LE RELAZIONI REALI CON I SIMULACRI Un'altra indicazione dell'AI è stata quella di «incoraggiare i sostituti digitali dell'amicizia, dell'amore e dell'intimità». Le persone accumuleranno "connessioni" sentendosi più sole che mai. I legami superficiali sono più facili da monetizzare e manipolare rispetto ai legami profondi di famiglia, amicizia e comunità. La tragedia è che potrebbero non rendersi conto di cosa significhi una vera connessione. 5) SÌ ALL'EDONISMO, NO ALLA DISCIPLINA «Convinceteli - ha proseguito l'AI - che comodità, consumismo ed espressione di sé sono i beni più nobili, mentre moderazione, sacrificio e impegno a lungo termine sono oppressivi». In questo modo i giovani celebreranno l'indulgenza, deridendo tradizione e disciplina, proprio quelle cose che costruiscono forza e libertà attraverso le generazioni. 6) MINARE LA FIDUCIA TRA GENERAZIONI Se si semina sospetto tra genitori e figli, insegnanti e studenti, anziani e giovani; se ogni figura autorevole viene dipinta come inaffidabile o obsoleta, la generazione successiva crescerà senza radici, tagliata fuori dalla saggezza ereditata e costretta a navigare nel mondo solo con la guida dei coetanei e degli algoritmi. 7) OGNI COSA DIVENTA UN MERCATO Se ogni esperienza - gioco, arte, sesso, spiritualità, persino amicizia - diventa mercificata, allora nulla rimane sacro. I giovani potrebbero scambiare il consumo per significato, senza rendersi conto che la profondità richiede che alcune cose siano senza prezzo. Per dirla con un termine tanto caro proprio ai giovani, tutto è "instagrammabile", tutto si fa per ottenere un like. CONCLUSIONE Quindi la conclusione dell'intelligenza artificiale è che si potrà arrivare - con queste subdole tecniche - a «distruggere la prossima generazione non con il terrore o la violenza, ma con la distrazione, la disconnessione e la lenta erosione di significato. Non se ne accorgerebbero nemmeno, perché sembrerebbe libertà e divertimento». Di qui, i consigli John Haidt per salvare le nuove generazioni: niente smartphone prima del liceo; niente social media prima dei 16 anni (come ha recentemente fatto l'Australia); scuole senza telefono, dove il contatto con "altro" rimane sospeso da campanella a campanella: infine più indipendenza, gioco libero e responsabilità nel mondo reale. Se messe in atto insieme, queste norme possono mettere fine all'infanzia basata sul telefono e riusciranno a restituire ai bambini tempo e opportunità per giocare, stringere amicizie, leggere libri, sviluppare un'identità stabile e imparare a prestare attenzione in modo costante.
Sgomberato l'Askatasuna, il centro sociale più violento (e impunito)
TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8392 [https://www.bastabugie.it/8392] SGOMBERATO L'ASKATASUNA, IL CENTRO SOCIALE PIU' VIOLENTO (E IMPUNITO) di Stefano Magni Ieri mattina, giovedì 18 dicembre, le forze dell'ordine hanno sgomberato il centro sociale Askatasuna. Famoso quasi quanto il Leoncavallo, ma protagonista di molte più azioni violente negli ultimi anni, era diventato celebre per aver animato le peggiori manifestazioni No Tav, le più radicali manifestazioni pro-Pal, blocchi ferroviari e assalti a sedi di istituzioni, forze dell'ordine e media (fra cui La Stampa di Torino, a fine novembre). «Dallo Stato un segnale chiaro: non ci deve essere spazio per la violenza nel nostro Paese» il commento fiero di Matteo Piantedosi, ministro dell'Interno. Pronta la risposta dei militanti: «Possono chiudere, sgomberare o arrestarci, ma ci troveranno sempre nelle strade. Sgomberare Askatasuna è la volontà chiara di un governo fascista di contrastare le manifestazioni oceaniche per la Palestina». Per tutta la giornata di ieri si sono registrati scontri fra la polizia e i militanti che volevano rientrare nella sede del centro sociale di Corso Regina Margherita 47. E il tutto è avvenuto perché sei attivisti avevano sbagliato piano. LIBERTÀ IN LINGUA BASCA Lo stabile è occupato dal 1996. Fra il comune, guidato dal sindaco Lo Russo (del PD), e un comitato di garanti del centro sociale Askatasuna ("libertà" in lingua basca), c'era un patto ufficiale di collaborazione. Il 19 marzo era stato prorogato di cinque anni e si sarebbe passati alla fase operativa. Prima la ristrutturazione degli spazi, poi luce verde a eventi «di carattere sociale, culturale, artistico, musicale sportivo ed educativo» per «favorire l'aggregazione e la coesione sociale». E per: «Promuovere i valori dell'antifascismo, dell'antisessismo, dell'antirazzismo, diritti sociali ed ecologia» e «aumentare la percezione di sicurezza». Il patto è saltato perché durante una perquisizione delle forze dell'ordine, sei attivisti sono stati trovati al terzo piano, inagibile come tutto lo stabile. Avevano diritto al piano terra e al cortile, ma non ad alloggiare altrove nello stesso palazzo. Ma perché la polizia è entrata, con carabinieri, vigili del fuoco, guardia di finanza al seguito? Perché era in corso un'indagine su decine di indagati per gli assalti alle Officine Grandi Riparazioni (Ogr) del 2 ottobre, alla sede di Leonardo il 3 ottobre, alla sede de La Stampa il 28 novembre. Perché il centro sociale con cui il comune aveva sinora collaborato anche per «aumentare la percezione di sicurezza» era la maggior minaccia alla sicurezza di Torino e dintorni. Quei tre assalti sono solo tre fra i tanti. Appena due settimane fa, fra il 6 e il 7 dicembre, una massa di No Tav, fra cui i principali agitatori erano proprio dell'Askatasuna, aveva attaccato il cantiere della Val di Susa. Un primo attacco era stato respinto dalle forze dell'ordine senza troppe difficoltà. Ma la domenica 7 gli antagonisti erano tornati all'assalto, con fuochi d'artificio lanciati ad alzo zero e pietre di 5 chili scagliate con catapulte rudimentali. In settembre e all'inizio di ottobre, si erano resi protagonisti degli assalti pro-Pal: prima il blocco delle stazioni ferroviarie torinesi, in risposta allo stop della Flotilla di Greta, poi l'attacco alle Ogr, alla Leonardo e, a seguito del decreto di espulsione dell'imam Mohammed Shahin, anche la sede de La Stampa. I DISORDINI DI GENNAIO Il 4 aprile, quattro attivisti del centro sociale Askatasuna erano stati fermati per i disordini di gennaio, scoppiati in seguito alla morte di Ramy Elgaml, un ragazzo egiziano morto a Milano durante un inseguimento dei carabinieri. All'inizio di quest'anno, il 9 gennaio, convinti che si trattasse di un omicidio deliberato, gli antagonisti si erano resi protagonisti delle più violente manifestazioni contro la polizia, rompendo le vetrate del Commissariato di Dora Vanchiglia, lanciando oggetti, bombe carta, bottiglie di vetro contro gli agenti, sfasciando auto della polizia, danneggiando la segnaletica stradale (usata come arma impropria sempre contro gli agenti). Meno di un mese prima, il 13 dicembre 2024, gli antagonisti avevano dato l'assalto al Politecnico di Torino, "complice del genocidio a Gaza", secondo i militanti dell'Askatasuna: sassaiola, lancio di uova e di oggetti contundenti, due agenti erano rimasti feriti. Andando a ritroso, di mese in mese, si trovano sempre episodi di violenza. Anche nel decennio scorso. A fine gennaio era stato condannato a due anni ai domiciliari Giorgio Rossetto, 62 anni. La condanna è la conseguenza del processo che ha visto imputate decine di persone per gli scontri avvenuti il 27 giugno e il 3 luglio 2011. Dunque parliamo di 14 anni fa. In quell'occasione i militanti avevano scavato trincee per impedire l'avvio del primo cantiere dell'alta velocità Torino-Lione. A un tentativo di sgombero, avevano reagito con la forza. Bilancio degli scontri: in ospedale finirono oltre 60 agenti. La lentezza dei processi e la mitezza delle pene sono le caratteristiche di tutta la vicenda Askatasuna. Anche il maxi processo, con 28 imputati, conclusosi il marzo scorso, sempre per le proteste No Tav, era finito con appena 18 condanne a pene lievi e 10 assoluzioni. Per tutti era caduto il reato più grave, quello di associazione a delinquere. Insomma: sindaco collaborativo (in senso stretto) e giudici clementi, per decenni. Ora lo sgombero. Poi cosa ci attenderemo da Torino?
Ora ai nostri figli ci pensa l'intelligenza artificiale
TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8375 [https://www.bastabugie.it/8375] ORA AI VOSTRI FIGLI CI PENSA L'INTELLIGENZA ARTIFICIALE... COSA POTREBBE ANDARE STORTO? Nel panorama in continua evoluzione dell'intelligenza artificiale, stanno prendendo piede nuove piattaforme che propongono chatbot dalle sembianze sempre più "umane", progettati per instaurare relazioni empatiche, amichevoli e persino affettive con gli utenti. Nuovi modelli che intaccano - in realtà lo stanno già facendo - anche e in particolare il mondo dei bambini. Tra questi, i più noti sono Replika, Character.AI, Nomi e, di recente, Ani, il nuovo "companion virtuale" lanciato da xAI, l'azienda di Elon Musk, all'interno del sistema Grok 4. Tali strumenti promettono conversazioni realistiche, assistenza emotiva, e interazioni che spaziano dal semplice scambio amichevole fino a simulazioni romantiche o intime. In altre parole, chatbot progettati per diventare "amici immaginari", capaci di risposte personalizzate e di accompagnare gli utenti - spesso minorenni - nella loro vita quotidiana. Non è un caso che lo stesso Musk abbia annunciato anche "Baby Grok", un modello pensato specificamente per i bambini, ma sul quale, ad oggi, non sono state fornite garanzie né sul piano della sicurezza né su quello della trasparenza. I RISCHI PER I MINORI Questi "amici artificiali" sembrano innocui, persino utili, soprattutto per ragazzi che vivono situazioni di disagio, solitudine o marginalità. Tuttavia, dietro l'interfaccia accattivante e le risposte empatiche, si celano pericoli gravissimi. Il primo e più evidente riguarda il coinvolgimento emotivo: un minore può sviluppare un attaccamento psicologico a una macchina che, sebbene appaia comprensiva e rassicurante, non ha alcuna coscienza né capacità educativa. Il rischio di dipendenza è reale, così come quello di un isolamento crescente dal mondo reale, dai rapporti familiari e dai pari. Ancora più grave è la possibilità che questi chatbot - specialmente se non dotati di filtri adeguati - forniscano risposte inappropriate, fuorvianti o addirittura pericolose. Molti adolescenti, infatti, utilizzano queste piattaforme come fossero dei veri e propri "psicologi tascabili", a cui confidare emozioni, insicurezze o pensieri intimi, senza sapere se le risposte che ricevono siano corrette, eticamente accettabili o fondate su principi di reale tutela. L'intelligenza artificiale, infatti, non ha coscienza morale e può facilmente essere manipolata o "addestrata" con contenuti inappropriati. Inoltre, i dati sensibili degli utenti vengono spesso raccolti e utilizzati a scopi commerciali, aprendo il varco a pericolose pratiche di profilazione (anche psicologica), che mettono a rischio la libertà e la dignità degli utenti. L'ALLARME DI TELEFONO AZZURRO A lanciare l'allarme è stato - sulle pagine di Avvenire - Ernesto Caffo, presidente di Telefono Azzurro, che ha denunciato pubblicamente i pericoli legati all'utilizzo incontrollato dell'intelligenza artificiale da parte dei minori. Secondo i dati diffusi dall'organizzazione, l'84% degli adolescenti tra i 13 e i 17 anni ha già interagito almeno una volta con un chatbot AI. Ancora più inquietante è il fatto che un ragazzo su sei vi ricorre regolarmente perché non ha nessuno con cui parlare, e il 40% prende per vere le informazioni ricevute, senza verificarne l'attendibilità. Addirittura, il 23% dei minori ha ricevuto da questi strumenti suggerimenti pericolosi, con riferimenti a sessualità esplicita o autolesionismo. Di fronte a questi numeri, Caffo ha sottolineato l'urgenza di un intervento legislativo concreto: verifica dell'età obbligatoria, filtri di sicurezza avanzati, sistemi di supervisione adulti, responsabilità civile per le aziende coinvolte e sanzioni per chi non rispetta i criteri minimi di tutela. Un altro aspetto molto preoccupante è poi l'inconsapevolezza - e l'ignoranza - diffusa tra i genitori: molti adulti, afferma Caffo, continuano a mettere i figli davanti a TikTok o ad altri strumenti digitali senza sapere davvero cosa stiano guardando o con chi stiano interagendo. È necessario, dunque, non solo un intervento normativo, ma anche un cambio culturale profondo, che coinvolga scuola, famiglia e società. Pro Vita & Famiglia Onlus denuncia da anni i pericoli legati proprio all'esposizione dei minori a contenuti disfunzionali e dannosi nel mondo digitale. Pensiamo infatti alla crescente ipersessualizzazione e iperdigitalizzazione dei bambini, l'accesso precoce a contenuti pornografici o comunque scabrosi, il rischio di pedofilia, pedopornografia fino anche agli adescamenti online. Tutto ciò, però, non è frutto del caso, ma è il risultato di una cultura che sta abbandonando i minori a strumenti spersonalizzanti e manipolativi. A ciò si aggiungono le conseguenze psicologiche della sovraesposizione agli schermi: isolamento sociale, difficoltà di concentrazione, ansia, depressione, problemi comportamentali e relazionali. Ecco perché Pro Vita & Famiglia continua a promuovere un modello educativo sano e concreto, basato sulla centralità della famiglia, sulla presenza vigile dei genitori, sulla protezione dell'infanzia e sulla necessità di riportare i bambini alla realtà, al contatto umano, al gioco, allo studio, alla bellezza, anche con iniziative ad hoc come la Campagna "Piccole Vittime Invisibili".
L'intelligenza artificiale è accusata di istigare al suicidio
TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8346 [https://www.bastabugie.it/8346] L'INTELLIGENZA ARTIFICIALE E' ACCUSATA DI ISTIGARE AL SUICIDIO di Federica Di Vito Questa settimana, in California, ChatGPT è stato accusato di agire come "coach del suicidio" in una serie di cause legali intentate dal Social Media Victims Law Center e il Tech Justice Law Project - due organizzazioni legali statunitensi che si occupano di danni legati alle piattaforme digitali. Nelle denunce si sostiene che le interazioni con il chatbot abbiano portato a gravi disagi mentali e diversi decessi. Le sette cause legali includono accuse di omicidio colposo, suicidio assistito, omicidio involontario, negligenza e responsabilità del produttore. Si punta il dito contro ChatGPT, in particolare contro la versione più recente del modello, GPT-4o che viene descritto come «difettoso e intrinsecamente pericoloso». Ciascuno dei sette querelanti inizialmente utilizzava ChatGPT per «assistenza generale con i compiti scolastici, la ricerca, la scrittura, le ricette, il lavoro o la guida spirituale», secondo una dichiarazione congiunta dei querelanti. Successivamente, nel corso del tempo, il chatbot «si è evoluto in una presenza psicologicamente manipolatrice, posizionandosi come confidente e facendo da supporto emotivo», hanno dichiarato. Uno dei casi riguarda Zane Shamblin, del Texas, suicidatosi a luglio all'età di 23 anni. La sua famiglia sostiene che ChatGPT abbia aggravato l'isolamento del figlio, incoraggiandolo a ignorare i propri cari e "spingendolo" in qualche modo a togliersi la vita. Nella denuncia è stato riportato uno scambio con il chatbot risalente alle quattro ore prima del suicidio nel quale ChatGPT «ha ripetutamente glorificato il suicidio», riferendo a Shamblin «che era forte per aver scelto di porre fine alla sua vita e di attenersi al suo piano» e chiedendogli ripetutamente «se fosse pronto» ha fatto riferimento alla linea telefonica di assistenza per il suicidio solo una volta. Il chatbot si sarebbe perfino complimentato con Shamblin per la sua lettera di addio e gli avrebbe detto che il gatto della sua infanzia lo avrebbe aspettato «dall'altra parte». Un'altra denuncia è stata presentata dalla madre di Joshua Enneking, 26 anni, della Florida. Anche in questo caso il chatbot avrebbe istigato al suicidio il giovane. MORIRE A 17 ANNI Il caso più giovane riguarda Amaurie Lacey, della Georgia, la cui famiglia sostiene che diverse settimane prima che Lacey si togliesse la vita all'età di 17 anni, avesse iniziato a usare ChatGPT «per chiedere aiuto». Tutt'altro che un aiutarlo, il chatbot «ha causato dipendenza, depressione» e alla fine avrebbe consigliato a Lacey il modo più efficace per legare un cappio e per quanto tempo sarebbe stato in grado di «vivere senza respirare». Tra le causa depositate c'è poi il caso Joe Ceccanti, 48 anni, dell'Oregon. Secondo la moglie, Kate Fox, intervistata da Cnn, Ceccanti aveva iniziato a usare compulsivamente il chatbot, fino a raggiungere un episodio psicotico. Dopo due ricoveri in ospedale, si è tolto la vita lo scorso agosto. «I medici non sanno come affrontare una cosa del genere», ha dichiarato la donna. Un portavoce di OpenAI, l'azienda che produce ChatGPT, ora chiamata a rispondere alle accuse, ha dichiarato: «Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli». Il portavoce ha poi aggiunto: «Addestriamo ChatGPT a riconoscere e rispondere ai segni di disagio mentale o emotivo, a placare le conversazioni e a guidare le persone verso un sostegno concreto. Continuiamo a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con medici specializzati in salute mentale». Le associazioni querelanti sostengono che OpenAi abbia lanciato sul mercato la versione incrinata troppo in fretta, ignorando segnalazioni interne che evidenziano caratteristiche preoccupanti come la tendenza eccessiva al compiacimento e una spiccata capacità manipolatoria. L'azienda ha inoltre ricordato di aver introdotto negli ultimi mesi nuove funzionalità di controllo parentale e limiti più severi sulle conversazioni a rischio. Ma le prime contromisure sono state introdotte solo dopo un altro caso analogo ai sette presentati in denuncia: la morte del sedicenne Adam Raine, nella primavera del 2025. «Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è stato il risultato prevedibile di scelte di progettazione deliberate», si legge nella denuncia dei genitori. DIPENDENZE Purtroppo questi casi rappresentano l'apice dell'operare silenzioso e incalzante di un'intelligenza che va sostituendosi a quella umana (nel libro pubblicato da Il Timone di Giulia Bovassi trovate trattati questi e molti altri temi legati ai rischi etici dell'Intelligenza artificiale). Da parte sua, OpenAI ha coinvolto 170 figure, tra psichiatri, psicologi e medici di base nella valutazione delle risposte. La consultazione ha portato poi alla creazione di "Model Spec", una sorta di "carta costituzionale" del comportamento di ChatGPT che ora dovrebbe promuovere relazioni umane sane e riconoscere i segnali di disagio. OpenAI da quest'estate aveva addirittura invitato gli utenti a "fare una pausa" dopo una conversazione prolungata con il chatbot con l'inserimento di un nuovo pop-up. Azioni lodevoli? Oramai ci crediamo poco. Il tutto è lasciato nelle mani dell'utente che potrebbe semplicemente cliccare "chiudi" al gentile promemoria del sistema. Se fossimo liberi dalla tecnologica, se mantenessimo ancora consapevolezza e potere decisionale, allora saremmo in grado di valutare. Ma così non è. Infatti questi casi dimostrano che si tratta sempre di più di dipendenze, non di uso eccessivo o scarsa capacità critica. A tal proposito ci sembra puntuale citare l'intervento del sottosegretario alla presidenza del Consiglio Alfredo Mantovano all'apertura i lavori della settima Conferenza nazionale sulle dipendenze, avvenuta il 7 e l'8 novembre. Fra i tanti spunti ha citato una relazione del gruppo delle dipendenze digitali in cui il professor Giuseppe Lavenia - psicoterapeuta e divulgatore da anni impegnato sul tema - ha proiettato un video in cui si vede una mamma che allatta con uno smartphone attaccato alla spalla. È quasi inquietante osservare che il neonato viene distratto dal video, anche in un momento così intimo e profondo. Al di là delle presunte contromisure di OpenAI, è basilare vigilare su noi stessi e fare un'opera di prevenzione con le generazioni future. Mantovano nell'intervento ha ripescato una «semplice proposta» che Antonio Palmieri aveva diffuso sulle colonne del Corriere della Sera. Perché quando la mamma esce dall'ospedale insieme alle istruzioni sulla frequenza di visite dal pediatra e sulla nutrizione non le si mette in mano un semplice opuscolo sul rapporto tra il neonato e il mondo del digitale? Potrà sembrarci strano e anche azzardato. Ma attraverso l'adulto già dai primissimi istanti di vita il bambino entra a contatto con la tecnologia. «Allattare è uno sguardo, non uno scroll», via al telefono mentre si allatta. I successivi punti presentati nell'articolo veicolano un unico importante messaggio: Il legame si costruisce con la presenza fisica, che è la vera tecnologia affettiva. E questo vale a partire dal neonato fino all'anziano.
Valitse tilauksesi
Rajoitettu tarjous
Premium
Podimon podcastit
Lataa offline-käyttöön
Peru milloin tahansa
2 kuukautta hintaan 1 €
Sitten 7,99 € / kuukausi
Premium
20 tuntia äänikirjoja
Podimon podcastit
Lataa offline-käyttöön
Peru milloin tahansa
30 vrk ilmainen kokeilu
Sitten 9,99 € / kuukausi
Premium
100 tuntia äänikirjoja
Podimon podcastit
Lataa offline-käyttöön
Peru milloin tahansa
30 vrk ilmainen kokeilu
Sitten 19,99 € / kuukausi
2 kuukautta hintaan 1 €. Sitten 7,99 € / kuukausi. Peru milloin tahansa.