Billede af showet Attualità - BastaBugie.it

Attualità - BastaBugie.it

Podcast af BastaBugie

italiensk

Nyheder & politik

Begrænset tilbud

2 måneder kun 19 kr.

Derefter 99 kr. / månedOpsig når som helst.

  • 20 lydbogstimer pr. måned
  • Podcasts kun på Podimo
  • Gratis podcasts
Kom i gang

Læs mere Attualità - BastaBugie.it

Commenti controcorrente delle notizie della settimana

Alle episoder

123 episoder
episode Sette strategie proposte dall'intelligenza artificiale per distruggere i giovani artwork

Sette strategie proposte dall'intelligenza artificiale per distruggere i giovani

TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8405 [https://www.bastabugie.it/8405] SETTE STRATEGIE PROPOSTE DALL'INTELLIGENZA ARTIFICIALE PER DISTRUGGERE I GIOVANI di Francesca Romana Poleggi   La salute mentale della Generazione Z - la coorte nata tra il 1996 e il 2012 - è crollata in tanti Paesi a partire dall'inizio degli anni 2010. Inizialmente si poteva pensare perché è una generazione viziata, iperprotetta. Ma ormai c'è un crescente numero di prove che coinvolgono la tecnologia, in particolare smartphone e social media. Ne è convinto John Haidt, noto psicologo americano, autore fra l'altro di una lucida analisi del malessere giovanile ("La generazione ansiosa", Rizzoli). All'interno del suo blog, After Babel, racconta di un esperimento fatto con ChatGPT. Ha chiesto all'Intelligenza Artificiale come avrebbe fatto a distruggere la gioventù americana e una delle prime risposte è stata: «Il modo più efficace per distruggere la prossima generazione senza che se ne accorga sarebbe attraverso una lenta e invisibile corrosione dello spirito umano, piuttosto che attraverso attacchi evidenti». Haidt - dopo aver sottoposto a ChatGPT vari argomenti, che potete leggere qui di seguito - conclude: «Se il diavolo volesse distruggere una intera generazione, potrebbe semplicemente dare a tutti degli smartphone». Ecco il "piano distruttivo" dell'intelligenza artificiale. 1) ERODERE L'ATTENZIONE E LA PRESENZA Se i giovani non riescono a concentrarsi, non possono imparare, creare o amare bene. La trappola sottile è quella di renderli dipendenti da stimoli continui: scrolling infinito, notifiche, micro-scariche di dopamina. Si sentiranno impegnati, "connessi", persino informati, mentre in realtà la loro capacità di pensiero e presenza prolungata si erode. Non sapranno mai cosa hanno perso. 2) CONFONDERE IDENTITÀ E SCOPO Se si confondono le fonti del significato - famiglia, comunità, nazione, fede, vocazione - i giovani si smarriscono. Saranno incoraggiati a vedere l'identità come infinitamente fluida e performativa, costantemente gestita per ottenere l'approvazione esterna (like, follower), anziché radicata in valori o impegni duraturi. Questo li rende malleabili, ansiosi e dipendenti dalla convalida esterna. Su questo aspetto, Haidt sottolinea che i ragazzi con un forte senso religioso, radicati in una comunità che crede in dei valori, sono meno vulnerabili degli altri. 3) TROPPE INFORMAZIONI MA POCA SAGGEZZA «Rendete tutto disponibile all'istante - ha risposto l'intelligenza artificiale - ma eliminate le indicazioni su come soppesare, ordinare e interpretare. Date loro infinite risposte senza insegnare loro a porre domande appropriate». In quella nebbia, verità e falsità sembrano ugualmente sfuggenti, quindi il cinismo diventa naturale. Una generazione che dubita di tutto non crede a nulla. 4) SOSTITUIRE LE RELAZIONI REALI CON I SIMULACRI Un'altra indicazione dell'AI è stata quella di «incoraggiare i sostituti digitali dell'amicizia, dell'amore e dell'intimità». Le persone accumuleranno "connessioni" sentendosi più sole che mai. I legami superficiali sono più facili da monetizzare e manipolare rispetto ai legami profondi di famiglia, amicizia e comunità. La tragedia è che potrebbero non rendersi conto di cosa significhi una vera connessione. 5) SÌ ALL'EDONISMO, NO ALLA DISCIPLINA «Convinceteli - ha proseguito l'AI - che comodità, consumismo ed espressione di sé sono i beni più nobili, mentre moderazione, sacrificio e impegno a lungo termine sono oppressivi». In questo modo i giovani celebreranno l'indulgenza, deridendo tradizione e disciplina, proprio quelle cose che costruiscono forza e libertà attraverso le generazioni. 6) MINARE LA FIDUCIA TRA GENERAZIONI Se si semina sospetto tra genitori e figli, insegnanti e studenti, anziani e giovani; se ogni figura autorevole viene dipinta come inaffidabile o obsoleta, la generazione successiva crescerà senza radici, tagliata fuori dalla saggezza ereditata e costretta a navigare nel mondo solo con la guida dei coetanei e degli algoritmi. 7) OGNI COSA DIVENTA UN MERCATO Se ogni esperienza - gioco, arte, sesso, spiritualità, persino amicizia - diventa mercificata, allora nulla rimane sacro. I giovani potrebbero scambiare il consumo per significato, senza rendersi conto che la profondità richiede che alcune cose siano senza prezzo. Per dirla con un termine tanto caro proprio ai giovani, tutto è "instagrammabile", tutto si fa per ottenere un like. CONCLUSIONE Quindi la conclusione dell'intelligenza artificiale è che si potrà arrivare - con queste subdole tecniche - a «distruggere la prossima generazione non con il terrore o la violenza, ma con la distrazione, la disconnessione e la lenta erosione di significato. Non se ne accorgerebbero nemmeno, perché sembrerebbe libertà e divertimento». Di qui, i consigli John Haidt per salvare le nuove generazioni: niente smartphone prima del liceo; niente social media prima dei 16 anni (come ha recentemente fatto l'Australia); scuole senza telefono, dove il contatto con "altro" rimane sospeso da campanella a campanella: infine più indipendenza, gioco libero e responsabilità nel mondo reale. Se messe in atto insieme, queste norme possono mettere fine all'infanzia basata sul telefono e riusciranno a restituire ai bambini tempo e opportunità per giocare, stringere amicizie, leggere libri, sviluppare un'identità stabile e imparare a prestare attenzione in modo costante.

06. jan. 2026 - 6 min
episode Sgomberato l'Askatasuna, il centro sociale più violento (e impunito) artwork

Sgomberato l'Askatasuna, il centro sociale più violento (e impunito)

TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8392 [https://www.bastabugie.it/8392] SGOMBERATO L'ASKATASUNA, IL CENTRO SOCIALE PIU' VIOLENTO (E IMPUNITO) di Stefano Magni   Ieri mattina, giovedì 18 dicembre, le forze dell'ordine hanno sgomberato il centro sociale Askatasuna. Famoso quasi quanto il Leoncavallo, ma protagonista di molte più azioni violente negli ultimi anni, era diventato celebre per aver animato le peggiori manifestazioni No Tav, le più radicali manifestazioni pro-Pal, blocchi ferroviari e assalti a sedi di istituzioni, forze dell'ordine e media (fra cui La Stampa di Torino, a fine novembre). «Dallo Stato un segnale chiaro: non ci deve essere spazio per la violenza nel nostro Paese» il commento fiero di Matteo Piantedosi, ministro dell'Interno. Pronta la risposta dei militanti: «Possono chiudere, sgomberare o arrestarci, ma ci troveranno sempre nelle strade. Sgomberare Askatasuna è la volontà chiara di un governo fascista di contrastare le manifestazioni oceaniche per la Palestina». Per tutta la giornata di ieri si sono registrati scontri fra la polizia e i militanti che volevano rientrare nella sede del centro sociale di Corso Regina Margherita 47. E il tutto è avvenuto perché sei attivisti avevano sbagliato piano. LIBERTÀ IN LINGUA BASCA Lo stabile è occupato dal 1996. Fra il comune, guidato dal sindaco Lo Russo (del PD), e un comitato di garanti del centro sociale Askatasuna ("libertà" in lingua basca), c'era un patto ufficiale di collaborazione. Il 19 marzo era stato prorogato di cinque anni e si sarebbe passati alla fase operativa. Prima la ristrutturazione degli spazi, poi luce verde a eventi «di carattere sociale, culturale, artistico, musicale sportivo ed educativo» per «favorire l'aggregazione e la coesione sociale». E per: «Promuovere i valori dell'antifascismo, dell'antisessismo, dell'antirazzismo, diritti sociali ed ecologia» e «aumentare la percezione di sicurezza». Il patto è saltato perché durante una perquisizione delle forze dell'ordine, sei attivisti sono stati trovati al terzo piano, inagibile come tutto lo stabile. Avevano diritto al piano terra e al cortile, ma non ad alloggiare altrove nello stesso palazzo. Ma perché la polizia è entrata, con carabinieri, vigili del fuoco, guardia di finanza al seguito? Perché era in corso un'indagine su decine di indagati per gli assalti alle Officine Grandi Riparazioni (Ogr) del 2 ottobre, alla sede di Leonardo il 3 ottobre, alla sede de La Stampa il 28 novembre. Perché il centro sociale con cui il comune aveva sinora collaborato anche per «aumentare la percezione di sicurezza» era la maggior minaccia alla sicurezza di Torino e dintorni. Quei tre assalti sono solo tre fra i tanti. Appena due settimane fa, fra il 6 e il 7 dicembre, una massa di No Tav, fra cui i principali agitatori erano proprio dell'Askatasuna, aveva attaccato il cantiere della Val di Susa. Un primo attacco era stato respinto dalle forze dell'ordine senza troppe difficoltà. Ma la domenica 7 gli antagonisti erano tornati all'assalto, con fuochi d'artificio lanciati ad alzo zero e pietre di 5 chili scagliate con catapulte rudimentali. In settembre e all'inizio di ottobre, si erano resi protagonisti degli assalti pro-Pal: prima il blocco delle stazioni ferroviarie torinesi, in risposta allo stop della Flotilla di Greta, poi l'attacco alle Ogr, alla Leonardo e, a seguito del decreto di espulsione dell'imam Mohammed Shahin, anche la sede de La Stampa.   I DISORDINI DI GENNAIO Il 4 aprile, quattro attivisti del centro sociale Askatasuna erano stati fermati per i disordini di gennaio, scoppiati in seguito alla morte di Ramy Elgaml, un ragazzo egiziano morto a Milano durante un inseguimento dei carabinieri. All'inizio di quest'anno, il 9 gennaio, convinti che si trattasse di un omicidio deliberato, gli antagonisti si erano resi protagonisti delle più violente manifestazioni contro la polizia, rompendo le vetrate del Commissariato di Dora Vanchiglia, lanciando oggetti, bombe carta, bottiglie di vetro contro gli agenti, sfasciando auto della polizia, danneggiando la segnaletica stradale (usata come arma impropria sempre contro gli agenti). Meno di un mese prima, il 13 dicembre 2024, gli antagonisti avevano dato l'assalto al Politecnico di Torino, "complice del genocidio a Gaza", secondo i militanti dell'Askatasuna: sassaiola, lancio di uova e di oggetti contundenti, due agenti erano rimasti feriti.   Andando a ritroso, di mese in mese, si trovano sempre episodi di violenza. Anche nel decennio scorso. A fine gennaio era stato condannato a due anni ai domiciliari Giorgio Rossetto, 62 anni. La condanna è la conseguenza del processo che ha visto imputate decine di persone per gli scontri avvenuti il 27 giugno e il 3 luglio 2011. Dunque parliamo di 14 anni fa. In quell'occasione i militanti avevano scavato trincee per impedire l'avvio del primo cantiere dell'alta velocità Torino-Lione. A un tentativo di sgombero, avevano reagito con la forza. Bilancio degli scontri: in ospedale finirono oltre 60 agenti. La lentezza dei processi e la mitezza delle pene sono le caratteristiche di tutta la vicenda Askatasuna. Anche il maxi processo, con 28 imputati, conclusosi il marzo scorso, sempre per le proteste No Tav, era finito con appena 18 condanne a pene lievi e 10 assoluzioni. Per tutti era caduto il reato più grave, quello di associazione a delinquere. Insomma: sindaco collaborativo (in senso stretto) e giudici clementi, per decenni. Ora lo sgombero. Poi cosa ci attenderemo da Torino?

23. dec. 2025 - 5 min
episode Ora ai nostri figli ci pensa l'intelligenza artificiale artwork

Ora ai nostri figli ci pensa l'intelligenza artificiale

TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8375 [https://www.bastabugie.it/8375] ORA AI VOSTRI FIGLI CI PENSA L'INTELLIGENZA ARTIFICIALE... COSA POTREBBE ANDARE STORTO?   Nel panorama in continua evoluzione dell'intelligenza artificiale, stanno prendendo piede nuove piattaforme che propongono chatbot dalle sembianze sempre più "umane", progettati per instaurare relazioni empatiche, amichevoli e persino affettive con gli utenti. Nuovi modelli che intaccano - in realtà lo stanno già facendo - anche e in particolare il mondo dei bambini. Tra questi, i più noti sono Replika, Character.AI, Nomi e, di recente, Ani, il nuovo "companion virtuale" lanciato da xAI, l'azienda di Elon Musk, all'interno del sistema Grok 4. Tali strumenti promettono conversazioni realistiche, assistenza emotiva, e interazioni che spaziano dal semplice scambio amichevole fino a simulazioni romantiche o intime. In altre parole, chatbot progettati per diventare "amici immaginari", capaci di risposte personalizzate e di accompagnare gli utenti - spesso minorenni - nella loro vita quotidiana. Non è un caso che lo stesso Musk abbia annunciato anche "Baby Grok", un modello pensato specificamente per i bambini, ma sul quale, ad oggi, non sono state fornite garanzie né sul piano della sicurezza né su quello della trasparenza. I RISCHI PER I MINORI Questi "amici artificiali" sembrano innocui, persino utili, soprattutto per ragazzi che vivono situazioni di disagio, solitudine o marginalità. Tuttavia, dietro l'interfaccia accattivante e le risposte empatiche, si celano pericoli gravissimi. Il primo e più evidente riguarda il coinvolgimento emotivo: un minore può sviluppare un attaccamento psicologico a una macchina che, sebbene appaia comprensiva e rassicurante, non ha alcuna coscienza né capacità educativa. Il rischio di dipendenza è reale, così come quello di un isolamento crescente dal mondo reale, dai rapporti familiari e dai pari. Ancora più grave è la possibilità che questi chatbot - specialmente se non dotati di filtri adeguati - forniscano risposte inappropriate, fuorvianti o addirittura pericolose. Molti adolescenti, infatti, utilizzano queste piattaforme come fossero dei veri e propri "psicologi tascabili", a cui confidare emozioni, insicurezze o pensieri intimi, senza sapere se le risposte che ricevono siano corrette, eticamente accettabili o fondate su principi di reale tutela. L'intelligenza artificiale, infatti, non ha coscienza morale e può facilmente essere manipolata o "addestrata" con contenuti inappropriati. Inoltre, i dati sensibili degli utenti vengono spesso raccolti e utilizzati a scopi commerciali, aprendo il varco a pericolose pratiche di profilazione (anche psicologica), che mettono a rischio la libertà e la dignità degli utenti. L'ALLARME DI TELEFONO AZZURRO A lanciare l'allarme è stato - sulle pagine di Avvenire - Ernesto Caffo, presidente di Telefono Azzurro, che ha denunciato pubblicamente i pericoli legati all'utilizzo incontrollato dell'intelligenza artificiale da parte dei minori. Secondo i dati diffusi dall'organizzazione, l'84% degli adolescenti tra i 13 e i 17 anni ha già interagito almeno una volta con un chatbot AI. Ancora più inquietante è il fatto che un ragazzo su sei vi ricorre regolarmente perché non ha nessuno con cui parlare, e il 40% prende per vere le informazioni ricevute, senza verificarne l'attendibilità. Addirittura, il 23% dei minori ha ricevuto da questi strumenti suggerimenti pericolosi, con riferimenti a sessualità esplicita o autolesionismo. Di fronte a questi numeri, Caffo ha sottolineato l'urgenza di un intervento legislativo concreto: verifica dell'età obbligatoria, filtri di sicurezza avanzati, sistemi di supervisione adulti, responsabilità civile per le aziende coinvolte e sanzioni per chi non rispetta i criteri minimi di tutela. Un altro aspetto molto preoccupante è poi l'inconsapevolezza - e l'ignoranza - diffusa tra i genitori: molti adulti, afferma Caffo, continuano a mettere i figli davanti a TikTok o ad altri strumenti digitali senza sapere davvero cosa stiano guardando o con chi stiano interagendo. È necessario, dunque, non solo un intervento normativo, ma anche un cambio culturale profondo, che coinvolga scuola, famiglia e società. Pro Vita & Famiglia Onlus denuncia da anni i pericoli legati proprio all'esposizione dei minori a contenuti disfunzionali e dannosi nel mondo digitale. Pensiamo infatti alla crescente ipersessualizzazione e iperdigitalizzazione dei bambini, l'accesso precoce a contenuti pornografici o comunque scabrosi, il rischio di pedofilia, pedopornografia fino anche agli adescamenti online. Tutto ciò, però, non è frutto del caso, ma è il risultato di una cultura che sta abbandonando i minori a strumenti spersonalizzanti e manipolativi. A ciò si aggiungono le conseguenze psicologiche della sovraesposizione agli schermi: isolamento sociale, difficoltà di concentrazione, ansia, depressione, problemi comportamentali e relazionali. Ecco perché Pro Vita & Famiglia continua a promuovere un modello educativo sano e concreto, basato sulla centralità della famiglia, sulla presenza vigile dei genitori, sulla protezione dell'infanzia e sulla necessità di riportare i bambini alla realtà, al contatto umano, al gioco, allo studio, alla bellezza, anche con iniziative ad hoc come la Campagna "Piccole Vittime Invisibili".

10. dec. 2025 - 6 min
episode L'intelligenza artificiale è accusata di istigare al suicidio artwork

L'intelligenza artificiale è accusata di istigare al suicidio

TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8346 [https://www.bastabugie.it/8346] L'INTELLIGENZA ARTIFICIALE E' ACCUSATA DI ISTIGARE AL SUICIDIO di Federica Di Vito   Questa settimana, in California, ChatGPT è stato accusato di agire come "coach del suicidio" in una serie di cause legali intentate dal Social Media Victims Law Center e il Tech Justice Law Project - due organizzazioni legali statunitensi che si occupano di danni legati alle piattaforme digitali. Nelle denunce si sostiene che le interazioni con il chatbot abbiano portato a gravi disagi mentali e diversi decessi. Le sette cause legali includono accuse di omicidio colposo, suicidio assistito, omicidio involontario, negligenza e responsabilità del produttore. Si punta il dito contro ChatGPT, in particolare contro la versione più recente del modello, GPT-4o che viene descritto come «difettoso e intrinsecamente pericoloso».  Ciascuno dei sette querelanti inizialmente utilizzava ChatGPT per «assistenza generale con i compiti scolastici, la ricerca, la scrittura, le ricette, il lavoro o la guida spirituale», secondo una dichiarazione congiunta dei querelanti. Successivamente, nel corso del tempo, il chatbot «si è evoluto in una presenza psicologicamente manipolatrice, posizionandosi come confidente e facendo da supporto emotivo», hanno dichiarato. Uno dei casi riguarda Zane Shamblin, del Texas, suicidatosi a luglio all'età di 23 anni. La sua famiglia sostiene che ChatGPT abbia aggravato l'isolamento del figlio, incoraggiandolo a ignorare i propri cari e "spingendolo" in qualche modo a togliersi la vita. Nella denuncia è stato riportato uno scambio con il chatbot risalente alle quattro ore prima del suicidio nel quale ChatGPT «ha ripetutamente glorificato il suicidio», riferendo a Shamblin «che era forte per aver scelto di porre fine alla sua vita e di attenersi al suo piano» e chiedendogli ripetutamente «se fosse pronto» ha fatto riferimento alla linea telefonica di assistenza per il suicidio solo una volta. Il chatbot si sarebbe perfino complimentato con Shamblin per la sua lettera di addio e gli avrebbe detto che il gatto della sua infanzia lo avrebbe aspettato «dall'altra parte». Un'altra denuncia è stata presentata dalla madre di Joshua Enneking, 26 anni, della Florida. Anche in questo caso il chatbot avrebbe istigato al suicidio il giovane. MORIRE A 17 ANNI Il caso più giovane riguarda Amaurie Lacey, della Georgia, la cui famiglia sostiene che diverse settimane prima che Lacey si togliesse la vita all'età di 17 anni, avesse iniziato a usare ChatGPT «per chiedere aiuto». Tutt'altro che un aiutarlo, il chatbot «ha causato dipendenza, depressione» e alla fine avrebbe consigliato a Lacey il modo più efficace per legare un cappio e per quanto tempo sarebbe stato in grado di «vivere senza respirare». Tra le causa depositate c'è poi il caso Joe Ceccanti, 48 anni, dell'Oregon. Secondo la moglie, Kate Fox, intervistata da Cnn, Ceccanti aveva iniziato a usare compulsivamente il chatbot, fino a raggiungere un episodio psicotico. Dopo due ricoveri in ospedale, si è tolto la vita lo scorso agosto. «I medici non sanno come affrontare una cosa del genere», ha dichiarato la donna. Un portavoce di OpenAI, l'azienda che produce ChatGPT, ora chiamata a rispondere alle accuse, ha dichiarato: «Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli». Il portavoce ha poi aggiunto: «Addestriamo ChatGPT a riconoscere e rispondere ai segni di disagio mentale o emotivo, a placare le conversazioni e a guidare le persone verso un sostegno concreto. Continuiamo a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con medici specializzati in salute mentale». Le associazioni querelanti sostengono che OpenAi abbia lanciato sul mercato la versione incrinata troppo in fretta, ignorando segnalazioni interne che evidenziano caratteristiche preoccupanti come la tendenza eccessiva al compiacimento e una spiccata capacità manipolatoria.  L'azienda ha inoltre ricordato di aver introdotto negli ultimi mesi nuove funzionalità di controllo parentale e limiti più severi sulle conversazioni a rischio. Ma le prime contromisure sono state introdotte solo dopo un altro caso analogo ai sette presentati in denuncia: la morte del sedicenne Adam Raine, nella primavera del 2025. «Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è stato il risultato prevedibile di scelte di progettazione deliberate», si legge nella denuncia dei genitori. DIPENDENZE Purtroppo questi casi rappresentano l'apice dell'operare silenzioso e incalzante di un'intelligenza che va sostituendosi a quella umana (nel libro pubblicato da Il Timone di Giulia Bovassi trovate trattati questi e molti altri temi legati ai rischi etici dell'Intelligenza artificiale). Da parte sua, OpenAI ha coinvolto 170 figure, tra psichiatri, psicologi e medici di base nella valutazione delle risposte. La consultazione ha portato poi alla creazione di "Model Spec", una sorta di "carta costituzionale" del comportamento di ChatGPT che ora dovrebbe promuovere relazioni umane sane e riconoscere i segnali di disagio. OpenAI da quest'estate aveva addirittura invitato gli utenti a "fare una pausa" dopo una conversazione prolungata con il chatbot con l'inserimento di un nuovo pop-up. Azioni lodevoli? Oramai ci crediamo poco. Il tutto è lasciato nelle mani dell'utente che potrebbe semplicemente cliccare "chiudi" al gentile promemoria del sistema. Se fossimo liberi dalla tecnologica, se mantenessimo ancora consapevolezza e potere decisionale, allora saremmo in grado di valutare. Ma così non è. Infatti questi casi dimostrano che si tratta sempre di più di dipendenze, non di uso eccessivo o scarsa capacità critica. A tal proposito ci sembra puntuale citare l'intervento del sottosegretario alla presidenza del Consiglio Alfredo Mantovano all'apertura i lavori della settima Conferenza nazionale sulle dipendenze, avvenuta il 7 e l'8 novembre. Fra i tanti spunti ha citato una relazione del gruppo delle dipendenze digitali in cui il professor Giuseppe Lavenia - psicoterapeuta e divulgatore da anni impegnato sul tema - ha proiettato un video in cui si vede una mamma che allatta con uno smartphone attaccato alla spalla. È quasi inquietante osservare che il neonato viene distratto dal video, anche in un momento così intimo e profondo.  Al di là delle presunte contromisure di OpenAI, è basilare vigilare su noi stessi e fare un'opera di prevenzione con le generazioni future. Mantovano nell'intervento ha ripescato una «semplice proposta» che Antonio Palmieri aveva diffuso sulle colonne del Corriere della Sera. Perché quando la mamma esce dall'ospedale insieme alle istruzioni sulla frequenza di visite dal pediatra e sulla nutrizione non le si mette in mano un semplice opuscolo sul rapporto tra il neonato e il mondo del digitale? Potrà sembrarci strano e anche azzardato. Ma attraverso l'adulto già dai primissimi istanti di vita il bambino entra a contatto con la tecnologia. «Allattare è uno sguardo, non uno scroll», via al telefono mentre si allatta. I successivi punti presentati nell'articolo veicolano un unico importante messaggio: Il legame si costruisce con la presenza fisica, che è la vera tecnologia affettiva. E questo vale a partire dal neonato fino all'anziano.

18. nov. 2025 - 7 min
episode A Gaza si continua a morire, ma giornali e televisioni non lo dicono artwork

A Gaza si continua a morire, ma giornali e televisioni non lo dicono

TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8335 [https://www.bastabugie.it/8335] A GAZA SI CONTINUA A MORIRE, MA GIORNALI E TELEVISIONI NON LO DICONO di Stefano Magni   A Gaza si continua a morire. Ma ad uccidere non sono gli israeliani: sono gli uomini di Hamas che stanno di nuovo consolidando il loro regno del terrore, in quel che resta della Striscia. Per questo non leggerete queste notizie sulle prime pagine dei nostri giornali e non vedrete manifestazioni di piazza (Landini? Greta? Conte?) per fermare il massacro. Ancor prima che venisse annunciato il cessate il fuoco con Israele, Hamas ha subito pensato di regolare i conti all'interno, contro i clan che ritiene abbiano tradito la causa islamica. La normalità gazawi è tornata: ora i terroristi hanno ripreso ad indossare le loro uniformi, a portare i distintivi e le fasce verdi da jihadista. Prima erano uomini in abiti civili, mescolati nella folla, perfetti per combattere un esercito regolare senza farsi notare, costringendo l'Idf a sparare nel mucchio e a suscitare la reazione indignata dell'opinione pubblica. Oggi, questi stessi uomini in uniforme nera, sotto i loro stendardi verdi, si distinguono dalla massa: sono lì per terrorizzare, per far capire a tutti chi comanda. Le masse di disperati e affamati si sono di colpo trasformate. Le immagini che giungono dalla Striscia ci mostrano folle urlanti, di assatanati di violenza che urlano di gioia mentre i "traditori" vengono trascinati per strada, costretti a inginocchiarsi e abbattuti con un colpo alla testa, peggio che in una macelleria a cielo aperto. I video, emersi da lunedì ci mostrano queste immagini di esecuzioni pubbliche, riprese vicino all'ospedale giordano di Gaza City, ora non più oggetto di proteste internazionali per i raid israeliani, ma bersaglio delle armi, leggere e pesanti, dei terroristi islamisti. I DOGHMOSH E GLI ALTRI CLAN RIVALI Gli uomini del clan rivale di Doghmosh vi si erano asserragliati, i terroristi di Hamas hanno intimato loro di consegnare dieci persone accusate di "collaborazionismo". I Doghmosh hanno rifiutato, Hamas minacciava di radere al suolo l'ospedale. Dopo il primo scambio di minacce, è stato ucciso un miliziano del partito al potere e da lì è iniziato l'inferno. Le immagini dei prigionieri fucilati sommariamente sono solo una parte della storia. I morti sono decine. Uno dei Doghmosh ha dichiarato di aver visto circa una ventina di corpi per strada e case in fiamme. "Sentivo spari tutt'intorno, scontri violenti", ha detto Sobheia Doghmosh, raggiunto dal Wall Street Journal durante i combattimenti. "L'area è ora completamente circondata da uomini armati e mascherati". L'unità paramilitare Rada'a ("forza di dissuasione") di Hamas ha dichiarato di aver neutralizzato diverse persone ricercate e di aver preso il controllo delle postazioni della milizia a Gaza City. Ha inoltre affermato di aver rastrellato membri delle milizie rivali nelle aree centrali e meridionali della Striscia di Gaza. Il clan dei Doghmosh non è l'unico nemico del partito islamista. All'inizio di ottobre, prima ancora che venisse approvato il cessate il fuoco, Hamas ha attaccato il clan di Al Majaydeh. Mohammad Majaydeh, 50 anni, portavoce del clan, ha dichiarato che almeno sei membri della sua famiglia sono stati uccisi negli scontri. DI NUOVO NELLE MANI DI HAMAS Si tratta di una guerra di un partito estremista islamico contro i clan. Nei due anni di guerra con Israele, clan di spicco e gruppi armati ribelli avevano colto l'occasione per sfidare pubblicamente Hamas e stabilire un controllo militare nelle proprie aree. Alcuni di questi gruppi, come Abu Shabab, a Rafah, al confine con l'Egitto, sono stati anche aiutati dall'Idf nel tentativo di indebolire ulteriormente la presa militare di Hamas sulla Striscia. I media, all'unisono, avevano immediatamente imposto la narrazione de "il governo Netanyahu che aiuta jihadisti vicini all'Isis". Intervistato da Fabiana Magrì de La Stampa, però, Abu Shabab si era presentato in veste tutt'altro che jihadista (anche se il confine fra gruppi islamisti e combattenti per la libertà nel Medio Oriente è sempre molto sfumato). "Per il bene del nostro popolo - aveva dichiarato Shabab, all'inizio di agosto - indipendentemente dalla sua religione, il nostro movimento mette al primo posto gli interessi palestinesi ed è totalmente estraneo all'ideologia della violenza estrema e al terrorismo". I grandi clan costituiscono circa il 30 per cento della popolazione di Gaza. Israele aveva inizialmente contato su di loro per costruire un'alternativa politica e militare a Hamas, non contando più sull'Autorità Palestinese. Ora il governo di Gaza è di nuovo nelle mani di Hamas, in attesa che quell'organismo tecnico a supervisione internazionale, concepito da Tony Blair, inizi a prendere forma. Nell'attesa di avere qualcosa di concreto in mano, Trump ha consentito a Hamas di tenere le armi leggere per ripristinare l'ordine interno. "Penso che andrà tutto bene", aveva commentato il presidente americano. Frase che ha portato male durante il Covid e che tuttora non sembra essere di buon auspicio neppure per Gaza: se dai un dito a Hamas, quello si prende tutto il braccio. E a pagare sono coloro che hanno sperato, o sono accusati di aver sperato, nella fine del loro lungo regno del terrore.

28. okt. 2025 - 6 min
En fantastisk app med et enormt stort udvalg af spændende podcasts. Podimo formår virkelig at lave godt indhold, der takler de lidt mere svære emner. At der så også er lydbøger oveni til en billig pris, gør at det er blevet min favorit app.
En fantastisk app med et enormt stort udvalg af spændende podcasts. Podimo formår virkelig at lave godt indhold, der takler de lidt mere svære emner. At der så også er lydbøger oveni til en billig pris, gør at det er blevet min favorit app.
Rigtig god tjeneste med gode eksklusive podcasts og derudover et kæmpe udvalg af podcasts og lydbøger. Kan varmt anbefales, om ikke andet så udelukkende pga Dårligdommerne, Klovn podcast, Hakkedrengene og Han duo 😁 👍
Podimo er blevet uundværlig! Til lange bilture, hverdagen, rengøringen og i det hele taget, når man trænger til lidt adspredelse.

Vælg dit abonnement

Begrænset tilbud

Premium

20 timers lydbøger

  • Podcasts kun på Podimo

  • Gratis podcasts

  • Opsig når som helst

2 måneder kun 19 kr.
Derefter 99 kr. / måned

Kom i gang

Premium Plus

100 timers lydbøger

  • Podcasts kun på Podimo

  • Gratis podcasts

  • Opsig når som helst

Prøv gratis i 7 dage
Derefter 129 kr. / måned

Prøv gratis

Kun på Podimo

Populære lydbøger

Kom i gang

2 måneder kun 19 kr. Derefter 99 kr. / måned. Opsig når som helst.