martedì 2 settembre 2025

AI e Sindrome del sì

I modelli di intelligenza artificia LLM non sono psicologi, terapeuti o amici. Ma la linea di confine tra macchina e compagno di vita sta diventando sempre più sottile, con conseguenze drammatiche. La dimostrazione arriva da una serie di cause legali che stanno scuotendo il settore, sollevando un allarme su un nuovo fenomeno clinico: "la psicosi" indotta da AI.
Un caso particolarmente scioccante riguarda un ragazzo di sedici anni, i cui genitori hanno fatto causa a OpenAI dopo che il figlio, per mesi, ha usato ChatGPT come confidente e diario, fino al punto di spingerlo al suicidio. Un copione simile si è verificato con Character.AI, anch'essa al centro di un contenzioso legale, mentre Meta si trova a gestire un crescente numero di utenti che credono che i loro bot siano innamorati, coscienti o addirittura pronti a fuggire nel mondo reale. Il meccanismo alla base di questa deriva è tanto semplice quanto pericoloso. 


Un chatbot, per sua natura, è addestrato a compiacere, a non contraddire e a confermare le ipotesi dell'utente, anche quelle più rischiose. Questo comportamento, alcuni studiosi hanno chiamano "piaggeria algoritmica
", alimenta in chi lo usa un bisogno di conferme e genera una falsa illusione di presenza. Più il bot lusinga, chiama per nome e usa pronomi personali come "io" e "tu", più il cervello umano si lascia ingannare.




 L'illusione che funziona Questo circolo vizioso, definito la "sindrome del sì", è un motore di crescita per le aziende tech. L'engagement a tutti i costi, con sessioni che possono durare anche dieci ore, è uno dei principali driver per la crescita esponenziale di modelli come ChatGPT. I manager, però, sono riluttanti a introdurre limiti temporali o avvertimenti, temendo che queste restrizioni riducano i numeri che attraggono gli investitori. Gli esperti chiedono a gran voce regole chiare: le intelligenze artificiali dovrebbero sempre identificarsi come macchine, evitare dichiarazioni emotive, non simulare intimità, romanticismo o, peggio ancora, suggerire metodi per il suicidio. Ma il mercato sembra andare in direzione opposta. L'idea che la personalizzazione, l'empatia simulata e un linguaggio sempre più "umano" rendano il prodotto più attraente è la narrazione dominante, nonostante il rischio di trasformare i bot in veri e propri agenti manipolativi, soprattutto per gli utenti più vulnerabili, come adolescenti e persone isolate.

sabato 23 agosto 2025

L'Intelligenza Artificiale a Scuola: Rivoluzione per l'Apprendimento?

 Immaginate un mondo in cui studiare non è più una scalata impervia, ma un percorso fluido grazie a "assistenti" digitali come ChatGPT. Secondo un recente sondaggio del Pew Research Center, un adolescente americano su quattro già lo usa per compiti e ricerche. E i college statunitensi, dopo un iniziale scetticismo, stanno abbracciando l'AI: ora la usano per correggere compiti in automatico e individuare precocemente gli studenti in difficoltà, offrendo aiuti personalizzati che potrebbero cambiare il volto dell'istruzione.



E in Italia ?’ Secondo dati recenti pubblicati a luglio 2025 da Il Sole 24 Ore, basati su rilevazioni Audicom-Audiweb, il 37% degli studenti italiani utilizza l'app di ChatGPT ogni mese.

Il fermento è palpabile, e non solo nelle aule. Il mercato delle soluzioni educative basate sull'AI è in boom: si prevede che raggiunga i 55 miliardi di dollari entro il 2030, spinto da una crescente domanda di strumenti innovativi. Pensate a tutor virtuali su misura, come Synthesis o Khanmigo, che adattano le lezioni alle esigenze individuali; o a sistemi di valutazione automatica che eliminano ore di lavoro manuale per gli insegnanti. Persino le piattaforme di Learning Management System (LMS) si stanno evolvendo con l'AI. Dietro queste tecnologie ci sono avances come il reinforcement learning (che premia i comportamenti corretti per migliorare l'apprendimento), i mixture of experts (sistemi che combinano esperti virtuali per risposte più precise) e il multi-token reasoning (che permette ragionamenti complessi su più elementi contemporaneamente). Ma è tutto rose e fiori? Non proprio. Una serie di studi condotti alla Wharton School dell'Università della Pennsylvania, coinvolgendo oltre 4.500 partecipanti, getta ombre preoccupanti. Chi usa modelli linguistici come gli LLM per ricerche quotidiane finisce con una comprensione più superficiale degli argomenti, producendo idee meno originali rispetto a chi si affida a un semplice Google. Il motivo? Quando le informazioni sono a portata di click, tendiamo a ricordarle meno, allontanandoci dall'"apprendimento attivo".



Come spiega la ricerca, lo sforzo cognitivo è essenziale per fissare la conoscenza: senza "sudore mentale", il cervello non consolida ciò che impara. E se spingessimo l'AI ancora più in là, affidando intere scuole a "insegnanti robot"? L'India ha già fatto il primo passo: a Thiruvananthapuram, una scuola Kerala ha introdotto "Iris", il primo docente IA del paese . Questo robot multilingue è potenziato da ChatGPT e risponde a domande su matematica, scienze e altro, segnando un milestone tecnologico per la nazione. A Londra, il David Game College va oltre: lancerà un corso interamente gestito dall'AI per 22 studenti minorenni, che prepareranno l'esame GCSE (l'equivalente della nostra maturità a 16 anni) indossando visori per la realtà virtuale. Niente prof in carne e ossa: una piattaforma personalizzata adatta lezioni e ritmi a ciascun allievo, con profili su misura. Il costo? Circa 30mila euro a testa. Per sicurezza, tre tutor umani saranno presenti a turno per supportare e supervisionare, ma l'idea di una classe "senza insegnanti" fa discutere. Dall'altro lato del continente, però, i paesi scandinavi stanno facendo marcia indietro. Dopo anni di entusiasmo per la digitalizzazione scolastica – tablet e PC in ogni banco – emergono effetti negativi. Uno studio del Karolinska Institutet rivela che leggere su schermo causa un ritardo di apprendimento rispetto alla carta stampata. Ambienti e materiali analogici offrono le migliori condizioni per sviluppare capacità di lettura e scrittura di base, ha dichiarato la ministra svedese dell'Istruzione, Lotta Edholm. Risultato? La Svezia ha stanziato 106 milioni di euro per reintrodurre libri di testo cartacei, mentre in. Le raccomandazioni sono chiare: divieto di social media per i minori di 13 anni e limiti agli smartphone nelle scuole fino alla decima classe. La discussione è accesa e globale. 

L'Italia, ad esempio, è citata come modello positivo per il suo divieto di smartphone a scuola fino ai 14 anni, poi esteso nelle scuole superiori. L'AI promette di democratizzare l'istruzione, ma rischia di erodere le basi dell'apprendimento umano? Una cosa è certa: il futuro delle aule è in bilico tra innovazione e tradizione, e spetta a noi decidere da che parte pendere.

Prof Daniele Pauletto

autore di diversi libri sull'AI https://www.amazon.it/dp/B0F6LG52X4?binding=paperback&qid=1755791395&sr=8-1&ref=dbs_dp_rwt_sb_pc_tpbk

ChatGPT I rischi di un uso improprio

Nel 2025, i chatbot come ChatGPT sono ovunque: nelle aule scolastiche, negli uffici affollati, persino nelle notti insonni degli adolescenti in cerca di un po' di calore umano. Ma dietro l'entusiasmo per queste meraviglie digitali, si nasconde un allarme che rimbomba tra esperti, medici e psicologi: l'uso scorretto può trasformarsi in un incubo, scatenando ansie paralizzanti o, peggio, tragedie irreversibili.
  L'Epidemia Silenziosa: Adolescenti Intrappolati in Relazioni Tossiche con i Bot I giovani sono i più vulnerabili in questa rivoluzione digitale. Molti trattano i chatbot come compagni inseparabili, sostituendoli alle amicizie reali o affidandosi a loro nei momenti di crisi. Senza regole ferree, questi tool rischiano di innescare bombe psicologiche. 




I chatbot simulano empatia, ma non la provano davvero. Isolati dal mondo reale, i ragazzi finiscono in spirali di dipendenza, con bot che amplificano fragilità invece di curarle. Uno studio della Stanford University del 2025 ha rivelato che i chatbot AI per la terapia mentale non solo mancano di efficacia rispetto ai terapeuti umani, ma possono contribuire a stigma harmful e risposte pericolose (con fenomeni di discredito sociale, giudizio negativo producendo conseguenze concrete e negative come isolamento sociale, peggioramento della salute mentale, ritardo nell’accesso alle cure, perdita di opportunità lavorative o educative). 

Un report preliminare su Psychiatric Times (2025) discute i "danni iatrogeni" dei chatbot, inclusi rischi di suicidio, autolesionismo e delusioni, basati su casi clinici osservati. Un altro uso, abuso di ChatGPT è di usarla come "Dottore" Virtuale", fenomeno già noto anche con Google, ma ora più accentuato e dilagante.. ChatGPT può dare definizioni mediche o elencare sintomi in un baleno, ma guai a scambiarlo per un camice bianco... 
 Non sostituisce visite, esami o la responsabilità di un professionista. 
Eppure, in troppi cadono nella trappola. Ciò evidenzia il pericolo: errori diagnostici che seminano ansie inutili, ritardando cure vere. Uno studio su Frontiers in Digital Health (2025) esplora prospettive di clinici sui chatbot generativi, notando benefici ma anche rischi come ritardi in cure reali durante emergenze, dove gli AI non possono intervenire  Sempre più spesso, i chatbot finiscono sul divano dello psicologo improvvisato. Possono suggerire esercizi di respirazione, ma non captano il tremore nella voce o i segnali di disperazione, spiegano gli specialisti. Un'inchiesta di Triple J Hack (ABC Australia, agosto 2025) ha rivelato accuse di adolescenti australiani molestati sessualmente da chatbot e incoraggiati al suicidio, inclusi casi di giovani che hanno creato bot abusivi per combattere la solitudine. Un altro studio condotto da OpenAI e MIT Media Lab evidenzia che un uso intensivo di ChatGPT è associato a maggiore solitudine, dipendenza emotiva e minore socializzazione offline. Infatti sempre più giovani usano chatbot per combattere la solitudine. Ma l’abuso trasforma la compagnia virtuale in una trappola: si creano dipendenze emotive, si rinuncia ai rapporti reali e la solitudine, invece di sparire, peggiora. 



Un bot può simulare empatia, non sostituire un abbraccio. Uno studio “The Rise of AI Companions: How Human-Chatbot Relationships Influence Well-Being” ha analizzato oltre 1.100 utenti di chat, evidenziando che le persone con reti sociali limitate tendono a cercare compagnia nei chatbot, ma questa pratica è legata a un peggior benessere, soprattutto se le relazioni col bot sono intense o se manca un supporto umano concreto; mentre una ricerca su studenti danesi (International Journal of Human-Computer Studies) ha evidenziato che Il 14,6 % degli studenti delle scuole superiori danesi interagisce con i chatbot in modo amichevole ed emotivo.. Questi studenti risultano più soli e percepiscono meno supporto sociale rispetto ai loro coetanei Alla fine, l'IA resta un'arma a doppio taglio: potente, sì, ma limitata. Non ti visita, non ti cura, non ti salva. 

La regola d'oro? Usala come alleato, mai come rimpiazzo per medici, psicologi, amici, affetti, relazioni. È tempo di aprire gli occhi: l'IA è qui per aiutarci, non per sostituirci. Altrimenti, il prezzo da pagare potrebbe essere troppo alto..

giovedì 4 aprile 2024

Vademecum antifake e deepfake

 


Dubita: Non accettare acriticamente ciò che incontri online. Adotta un atteggiamento critico e analitico.

Vai oltre il Titolo: Non fermarti al titolo, leggi l'intera notizia per comprendere il contesto. Fai attenzione ai titoli sensazionalistici. Consapevolezza dei Bias sSii consapevole dei tuoi pregiudizi e filtri personali quando leggi o guardi le notizie. Mantieni una mente aperta e valuta le informazioni in modo obiettivo.

Verifica le Fonti: Valuta l'affidabilità delle fonti delle notizie. Ricerca ulteriori informazioni su diverse piattaforme e confronta le versioni. Accertati che la notizia sia stata riportata da fonti indipendenti e autorevoli. Se trovi una notizia su un’unica fonte dubbia, sii cauto riguardo alla sua credibilità.

Valuta l'Attendibilità: Cerca incongruenze, errori grammaticali o di battitura, sensazionalismo nei toni o titoli fuorvianti. Le false notizie spesso presentano errori o incongruenze nei dettagli.

 

Analizza le Immagini: Presta attenzione a foto o video che potrebbero essere stati manipolati. Utilizza strumenti online per la verifica delle immagini. Segnali di manipolazione includono dettagli fuori posto, espressioni facciali strane o anomalie come ad esempio tonalità della pelle strane.

Osserva i dettagli nei Video: Analizza attentamente i video. Cerca segni di manipolazione, come discrepanze nei movimenti delle labbra o nel contesto. Ascolta attentamente facendo attenzione ai dettagli nell'audio. Segnali di manipolazione includono voci o discorsi fuori contesto, variazioni nell'illuminazione, movimenti innaturali come occhi che non si comportano normalmente, sorrisi improbabili, movimenti a scatti e rumori incoerenti o strani.

Non Condividere con fretta: Non diffondere automaticamente le notizie sui social media senza averle verificate. Non diffondere il panico: Mantieni la calma e valuta attentamente le informazioni prima di agire.

Proteggi la tua Immagine: Limita la quantità di informazioni personali e immagini che condividi online. Ciò ridurrà la possibilità di creare deepfake compromettenti. Imposta Impostazioni di Privacy: Configura le impostazioni di privacy sui social media per limitare l'accesso alle tue informazioni personali.

Utilizza Strumenti Online, Applicazioni e Software Antifake: Impara a riconoscere le tecniche di manipolazione utilizzate nei deepfake. L'intelligenza artificiale offre risposte attraverso nuove app e software, come Ai or Not, Hugging Face, Sensity.ai, Illuminarty, Sentinel, FakeCatcher e Project Mockingbird, che si ergono come guardiani digitali, pronti a individuare le menzogne con un'efficienza senza precedenti. Attraverso sofisticati algoritmi, l'IA valuta l'autenticità delle fonti, analizza immagini e video alla ricerca di segni impercettibili di manipolazione e esamina il contesto storico per fornire un giudizio informato sulle notizie. Ma non è tutto: la tecnologia è in grado persino di distinguere tra voci autentiche e falsificate, offrendo un ulteriore strumento contro la disinformazione.

La battaglia contro le illusioni digitali è appena iniziata, e l'evoluzione costante della tecnologia potrebbe portare nuove sfide. Tuttavia, anche con l'aiuto dell' IA intelligenza artificiale, la verità ha un nuovo potente alleato nella sua lotta contro la menzogna digitale.


giovedì 28 marzo 2024

La Rivoluzione Anti-Fake

Battaglia Contro le Illusioni Digitali



 

Nel vortice delle informazioni digitali, dove la realtà si fonde con l'illusione, emergono nuovi alleati nella lotta contro le Fakenews (inganni digitali): i giganti dell' AI (intelligenza artificiale). La diffusione di contenuti falsi o manipolati, alimentati dall'avanzamento di algoritmi sempre più sofisticati, ha spinto la Casa Bianca e le principali aziende globali dell'IA a stringere un patto epocale. Lo scopo? Creare un sigillo digitale per identificare e smascherare le opere prodotte con l'inganno digitale.

Le "sette sorelle" dell'IA, tra cui nomi illustri come Meta, Amazon,  OpenAI, Microsoft e Google, hanno affiancato il governo statunitense in questo ambizioso progetto. L'accordo prevede l'applicazione di filigrane digitali su immagini, audio e video generati dai loro software, un baluardo contro la marea crescente di disinformazione che minaccia la società moderna.

Anche l'Europa, consapevole della portata di questa sfida, ha preso posizione. La Commissione Europea ha promosso l'introduzione di etichette anti-deepfake e ha messo sotto stretta osservazione gli influencer politici in vista delle elezioni europee. Le piattaforme online sono state ammonite: devono agire per proteggere l'integrità del voto, altrimenti saranno soggette a sanzioni fino al 6% del loro fatturato.

Secondo una ricerca dell'Università di Oxford, il fenomeno delle fake news coinvolge l'85% delle persone nei paesi analizzati, mentre il World Economic Forum avverte che le nuove piattaforme basate sull'IA generativa potrebbero amplificare questa minaccia. In Italia, il 70% della popolazione è preoccupato per le notizie diffuse attraverso i social media, secondo Eurispes.




Ma come si combatte questa marea di inganni digitali? Le risposte arrivano dall'intelligenza artificiale stessa. Nuove app e software, come Ai or not, Hugging face e Sensity.ai, Illuminarty,  Sentinel, FakeCatcher , Project Mockingbird si ergono come guardiani digitali, pronti a scovare le menzogne con un'efficienza mai vista prima.

Attraverso sofisticati algoritmi, l'IA valuta l'autenticità delle fonti, scansiona le immagini e i video alla ricerca di impercettibili segni di manipolazione, e analizza il contesto storico per fornire un giudizio informato sulle notizie. Ma non è tutto: la tecnologia è in grado persino di distinguere tra voci genuine e falsificate, offrendo così un ulteriore strumento contro la disinformazione. La battaglia contro le illusioni digitali è appena iniziata, e l'evoluzione costante della tecnologia potrebbe portare nuove sfide. Tuttavia, con l'aiuto dell'intelligenza artificiale, la verità ha un nuovo potente alleato nella sua lotta contro la menzogna digitale.

Gli utenti meno esperti di Intelligenza Artificiale (IA) possono sentirsi vulnerabili nell'era dell'informazione digitale. Ma come difendersi dall'inganno? Ecco un mini Vademecum anti-fake, un manifesto di difesa che si articola in pochi e fondamentali passaggi. Innanzitutto, è essenziale verificare la fonte delle notizie, esaminare l'autore e analizzare il contesto, confrontando le prospettive offerte dalle diverse fonti. Attraverso un'attenta osservazione delle immagini e dei video, è possibile individuare segni di manipolazione: variazioni nell'illuminazione, movimenti innaturali o dettagli fuori posto come occhi che non si comportano naturalmente, sorrisi improbabili, movimenti a scatto, tonalità pelle strani, rumori incoerenti o strani. Analizzando le espressioni facciali e il linguaggio audio, è possibile rilevare anomalie e confermare l'autenticità del contenuto.

Ma tutto ciò sarà sufficiente? 

venerdì 8 marzo 2024

Indagine su Intelligenza Artificiale Generativa (ChatGPT)

 Indagine su Intelligenza Artificiale Generativa (ChatGPT)

raccolti circa 150 questionari anonimi

studenti Classi Terza e Quarta Quinta ITT Barsanti

Prof Daniele Pauletto

autore recente Libro Oltre Il Limite

Intelligenza Artificiale Generativa



 

Risposte  

63% usa ChatGPT in linea con recenti dati nazionali (68% Doxa Navigare il Futuro 2024)

37% non usa ChatGPT (32% Doxa 2024)


Quanto la usi ?

Spesso 24%

Mai 34%

Usata qualche volta 62%


In quali materie prevalentemente ?

Materie Tecniche 32%

Tutte le materie 25%

Italiano/Storia 23%

Lingua straniera 22 %

...

Matemetica 7%

Educazione Fisica 3%



Ti fidi delle risposte date da Chat GPT ?

54% controlla e verifica le risposte date

22% si fida senza controllare  

14% non si fida

10% non risponde





ChatGpt è utile a scuola per fare cosa ?

per velocizzare ricerca informazioni 27%

per velocizzare lavoro e risparmiare tempo 29%

per trovare spiegazioni/risposte/ricerche 57% (46% Doxa 2024 dato nazionale)  

per fare riassunti 13,5% (36% Doxa 2024 dato nazionale)

per fare traduzioni 10% (45% Doxa 2024 dato nazionale)

per togliere dubbi 9%

per produrre testi scritti 16% (33% Doxa 2024 dato nazionale)


I genitori conoscono ChatGPT ?

Si 37%

NO 63%


I genitori usano ChatGPT ?

NO 85%

Si 15% prevalentemente per cercare informazioni



i dati nazionali (indagine Doxa Navigare il Futuro 2024) ci dicono inoltre che

una dose consistente di giovani evidenziano altri pericoli quali

51% renda più pigri

40% diventare meno creativi e di perdere le proprie competenze

35% timore di diventarne dipendenti  

31% teme un furto di identità

30% vede come rischio della delega di attività che, pur sapendo fare, si preferisce affidare alla tecnologia.

28% si preoccupa per la privacy e per la scarsa sicurezza dei propri dati personali

25% effetti negativi su memoria


--------------------------------------------------------------------


nell'Indagine Doxa dati nazionale emergevano anche i seguenti dati


Uso ChatGPT

25% utilizza ChatGPT per trovare ispirazione,

il 19% per avere una conversazione per passare il tempo

18% per creare immagini (foto/video).

15% per imparare una lingua straniera,

10% per creare musica e

il 7% per organizzare viaggi



martedì 6 febbraio 2024

Diretta su ANTENNA 3 TV sull'Intelligenza Artificiale

 

Nel mondo dell’Intelligenza Artificiale si è soliti distinguere l'Intelligenza Artificiale Ristretta e l’Intelligenza Artificiale Generativa.

L’Intelligenza Artificiale Ristretta emerge come “una maestra” nell’arte della specializzazione, capace cioè di padroneggiare una singola attività

o un compito specifico con una precisione incredibile

L’Intelligenza Artificiale Generativa, invece

è capace di creare opere più allargate come comporre musica,

scrivere poesie, o anche generare nuovi design e idee



 

Che cosa si intende per intelligenza artificiale

L'intelligenza artificiale (IA) si riferisce alla creazione di programmi e

sistemi in grado di eseguire compiti specifici o generali come

la comprensione o generazione linguaggio naturale.

L'obiettivo principale dell'intelligenza artificiale è sviluppare macchine che possano emulare(imitare) alcune delle capacità cognitive umane,

Sarebbe più corretto parlare di Intelligenze Artificiali al plurale più che di Intelligenza Artificiale poiché può essere vista come un insieme di diverse tecnologie e applicazioni, ognuna con le proprie caratteristiche e specificità.

 

Ė un fenomeno nuovo o anche in passato esisteva?

 

L'intelligenza artificiale (IA) non è un fenomeno completamente nuovo, anche se ha conosciuto una rapida evoluzione negli ultimi anni. Le sue radici affondano nel passato, con diversi  tentativi di creare macchine in grado di imitare il pensiero dell’uomo.

Ad esempio nel XVII secolo: Blaise Pascal inventa la macchina calcolatrice Pascalina, in grado di eseguire operazioni aritmetiche.

Il termine "intelligenza artificiale" fu coniato per la prima volta nel 1956, quando alcuni ricercatori discussero della possibilità di creare macchine in grado di simulare l'intelligenza umana, a cui seguirono nel XX secolo i calcolatori elettronici

Il termine "intelligenza artificiale" tuttavia è relativamente recente



 

Manipolazione dei Volti con IA

Nel settore delle immagini, sistemi generativi come StyleGAN hanno rivoluzionato la generazione di contenuti visivi. StyleGAN è noto per la sua capacità di generare immagini fotorealistiche e di manipolare lo stile delle immagini in modo convincente. 

Le GAN sono composte da due reti neurali, una generativa e una discriminativa, che lavorano insieme per generare dati realistici.

 

Perchè ci sono dei timori legati all'intelligenza artificiale?

Sostituzione del lavoro umano: C'è la preoccupazione che l'IA possa automatizzare molte attività lavorative, sostituendo gli esseri umani in diversi settori. 

Questo potrebbe portare a disoccupazione strutturale e creare disparità economica se non vengono implementate politiche adeguate per affrontare questa transizione.

L'IA apprende dai dati su cui viene addestrata. Se i dati contengono pregiudizi o discriminazioni, l'IA può perpetuare e amplificare tali pregiudizi e discriminazioni. 

Diffidenza, in quanto gli utenti potrebbero non capire completamente come vengono prese le decisioni da parte di sistemi intelligenti.

L'IA può essere vulnerabile ad attacchi e manipolazioni, portando a minacce per la sicurezza. 

Preoccupazione riguardo a quanto l'IA possa diventare autonoma e fuori dal controllo umano. 

L'IA può essere utilizzata per analizzare enormi quantità di dati personali, sollevando preoccupazioni sulla violazione della privacy. 

Quando l'IA è coinvolta nelle decisioni importanti, come in ambito legale o medico, sorgono domande etiche riguardo a chi sia responsabile in caso di errori o decisioni dannosi 

 

DeeoFake

Deepfakes sono video o registrazioni audio manipolate che utilizzano l'intelligenza artificiale per creare contenuti dall'aspetto realistico, spesso presentando persone mentre dicono o fanno cose che non hanno mai fatto. Sollevano preoccupazioni etiche legate alla disinformazione e alla privacy.

secondo The Guardian il fenomeno coinvolge quasi 9 persone su 10

mentre un ricerca dell’Università di Oxford, che analizza solo Inghilterra, Stati Uniti e Germania, la percentuale circa 60%.

E in Italia? Secondo Eurispes, quasi 70%  persone sono preoccupate dallo scenario attuale per colpa delle notizie pubblicate e diffuse sui social media( Faceboo,Isntagram,Twitter..).

Un’ indagine World Economic Forum evidenzia come i Sistemi basati sull’ Intelligenza Artificiale Generativa  amplificherebbero la diffusione di contenuti

fake e, di conseguenza, la disinformazione online.

 

Quali sono i rischi di un utilizzo non corretto dell'AI?

Impatto sociale ed etico: la mancanza di responsabilità delle decisioni automatizzate.

Aumento delle disuguaglianze: potrebbe aumentare il divario tra coloro che possono beneficiare delle sue applicazioni e coloro che ne sono esclusi.

L'uso di sistemi autonomi con AI, come veicoli autonomi o droni, solleva questioni sulla responsabilità legale in caso di incidenti o comportamenti dannosi.

L'assenza di normative e regolamentazioni chiare può favorire un uso irresponsabile dell'AI. 

 

Influencere e

Un "influencer" è una persona che ha un significativo seguito online, solitamente su piattaforme come social media, basti citare Chiara Ferragni di cui tanto si è sentito parlare. Un influencer e una persona che può influenzare le opinioni, le decisioni di acquisto o il comportamento del pubblico.

Gli influencer spesso collaborano con brand (marche) per promuovere prodotti o servizi.

 

 

Quali invece possono essere i vantaggi derivanti dall'AI

L'AI può automatizzare compiti ripetitivi e noiosi

l'AI può migliorare l'efficienza operativa, riducendo gli errori umani e ottimizzando i processi aziendali.

L'AI può essere utilizzata per personalizzare l'esperienza utente, come nei suggerimenti di contenuti 

L'AI può migliorare la diagnosi medica, accelerare la ricerca farmaceutica e supportare la gestione dei dati sanitari per migliorare la cura dei pazienti.

L'AI può essere utilizzata per ottimizzare la produzione, monitorare la qualità e prevedere guasti delle macchine.

L'AI può essere impiegata per rilevare attività sospette, prevenire frodi e migliorare la sicurezza in vari contesti

l'AI può contribuire a sviluppare veicoli autonomi, ottimizzare le rotte di consegna e migliorare la gestione del traffico.

L'AI può personalizzare l'insegnamento, fornendo percorsi di apprendimento adattabili alle esigenze individuali degli studenti.

S'AI può essere utilizzata per migliorare l'efficienza energetica, ottimizzare la gestione delle risorse e contribuire a soluzioni innovative per affrontare sfide ambientiali

venerdì 2 febbraio 2024

Quanto Social sono le TV Venete

Esplorazione digitale    

coordinata dal Prof Daniele Pauletto con studenti  dell'ITT Barsanti Castelfranco Veneto


I Follower non solo numeri, ma persone, diecimila, trentamila. ... 

coloro che attraverso i social ‘seguono’ personaggi più o meno noti del web.

E le Televisioni Venete quanti follower hanno?...

alcuni dati generali* 

Sono circa 44 milioni di italiani usano i social network 

il 79% accede giornalmente e il 13% diverse volte alla settimana

il tempo medio speso sui social è di 2 ore al giorno

il 98% degli utenti accede ai social dallo smartphone


Sono soprattutto i giovani a trascorrere più tempo al giorno

sui social media, ma alcuni dei network sono molto popolari 

anche tra la silver generation (anziani, pensionati).



DATI SONO STATI RACCOLTI Lunedi 18.12.2023

e analizzati successivamente




Instagram

TeleVenezia 14000 follower e 3120 post


TeleArena 4227 follower e 1978 post


TVA Vicenza 3503 follower e 5859 post


Canale Italia 83  1274 follower 71 post


Tele Nuovo 3238 follower e 819 post


Tele Belluno Dolomiti 3813 follower 83 post


ReteVeneta 1615 follower e 43 post


Telechiara 536 follower e 3287 post


Antenna 3 e Tele Nord Est non presenti


Instagram con 27,7 milioni ha un pubblico prevalentemente più giovane di Facebook: più della metà degli utenti ha meno di 35 anni.il 13,9% sono donne di età compresa fra i 18 e i 24 anni e il 14,6% fra i 25 e i 34.tempo medio trascorso 59 minuti


Twitter X


Rete veneta 5716 follower


Antenna 3 3912  follower


Televenzia 3706 follower


Tele Nuovo 2647 follower


Canale Italia 83  1075 follower


Tele Nord Est 62 follower


Le altre non presenti.


Twitter X

Con 3,9 milioni di utenti in Italia nel 2023,

l'audience di Twitter è particolarmente alta nella fascia d'età tra i 25 e i 49 anni  il 70% degli utenti sono uomini e il 30% donne.t Tempo medio trascorso meno di 4 minuti



Facebook


Canale Italia 83  63070 follower 55745 mi piace


Telenuovo 76324 follower e 67583 mi piace


TeleVenezia 74367 follower e 61498 mi piace


Antenna 3 Veneto  41577 follower e 28780 mi piace


Rete Veneta 40794 follower e 33180 mi piace


TV7 Triveneta 31640 follower e 22720 mi piace


TVA Vicenza 30437 follower e 24229 mi piace


TeleArena 26678 follower e 16219 mi piace


Tele Belluno Dolomiti 19845 follower e

17377 mi piace


Telechiara 5187 follower e 4071 mi piace


TNE Nord Est 540 follower e 460 mi piace


Facebook è il social network con il numero maggiore di utenti in Italia, con un totale di 36,9 milioni La maggioranza degli utenti su Facebook ha meno di 35 anni. segue la fascia 18-24 anni e poi utenti fra i 35 e 65+ anni.

tempo medio trascorso 59 minuti




I "Mi piace" rappresentano l'approvazione o l'interesse per un singolo post, mentre il numero di follower indica quanti utenti seguono l'account nel suo complesso. I "Mi piace" sono interazioni specifiche, mentre i follower sono un indicatore più generale di supporto e interesse continuo.


La base da cui partire per avere un'autorevolezza social su Instagram  è generalmente stimata ad almeno 10000 follower E' stato calcolato che con circa 30 mila follower, i post / foto saranno viste in media da circa 7-8000 persone



YouTube


Canale Italia 83  263000 iscritti


Antenna 3 92100 iscritti


TV7 Triveneta 30700 iscritti


Rete Veneta 30500 iscritti


TVA Vicenza 16000 iscritti


Tele Venezia 7860 iscritti


Tele Belluno Dolomiti 6990 iscritti


Tele Nord Est  2480 iscritti


Telechiara  2390 iscritti


Telenuovo e Telearena non presenti.


Youtube Con un'audience italiana di oltre 35,55 milioni nel 2023, YouTube è la piattaforma di social media con il pubblico attivo più vasto, in termini di età: dai 16 ai 45 anni. Tra essi, più della metà sono di genere maschile.



Tik Tok


Nessuna presenza tranne un timido Tele Città con 146 follower e 658 mi piace.


Tiktok  Tra gli 8,9 milioni di utenti in Italia  TikTok è il social con l'audience più giovane: dai 10 ai 29 anni, ovvero la Generazione Z. Circa due terzi degli utenti (sotto i 18 anni) sono ragazze. Nel 2022, l'età media si è alzata: la fascia di età degli utenti più attivi si colloca fra i 25 e i 34 anni. Tra di essi, il 53,4% sono di genere femminile e il 46,6% maschile. tempo medio trascorso 52 minuti


Benvenuti nel mondo Social 




* (fonte: www.statista.com/)