{"id":176,"date":"2025-04-17T05:01:42","date_gmt":"2025-04-17T05:01:42","guid":{"rendered":"https:\/\/radioaversa.it\/?p=176"},"modified":"2025-04-17T05:01:42","modified_gmt":"2025-04-17T05:01:42","slug":"social-media-e-polarizzazione-della-societa-che-futuro-ci-aspetta","status":"publish","type":"post","link":"https:\/\/aversa2030.com\/index.php\/2025\/04\/17\/social-media-e-polarizzazione-della-societa-che-futuro-ci-aspetta\/","title":{"rendered":"Social media e polarizzazione della societ\u00e0\u2026 Che futuro ci aspetta?"},"content":{"rendered":"<p><strong>Prima l&#8217;assalto a Capitol Hill e, poi, quello della Piazza dei Tre Poteri a Brasilia, sono solo alcuni dei segnali d\u2019allarme che dovrebbero richiamare l\u2019attenzione di tutti quelli che in futuro non vogliano far vivere i figli in una societ\u00e0 distopica. Per ridurre al minimo questo rischio occorrerebbe prendere coscienza dei pericoli che la tecnologia ha disseminato sul cammino dell\u2019umanit\u00e0. Uno dei problemi da risolvere sono gli algoritmi dei social media. Stanno rendendo concreto un pericolo che gli scienziati da tempo paventano: la polarizzazione della societ\u00e0. Gli esperti, infatti, ritengono che gli algoritmi che sovrintendono all\u2019attivit\u00e0 dei social siano responsabili della crescente \u201cpolarizzazione\u201d della popolazione mondiale. Chi li ha creati ha scelto deliberatamente di incoraggiare i comportamenti definiti \u201cecho chamber&#8221;. <\/strong><\/p>\n<p><strong>Sono una minaccia alla nostra comprensione dei fatti e alla capacit\u00e0 di prendere decisioni in base a informazioni corrette. In chi \u00e8 esposto solo a opinioni e informazioni che riflettono le sue stesse credenze, si creano un \u201ceffetto rinforzo\u201d e una sorta di \u201ccomfort zone\u201d dove le sue opinioni rimangono inalterate. In un&#8217;epoca in cui l&#8217;accesso all&#8217;informazione \u00e8 pi\u00f9 facile che mai, l&#8217;echo chamber, per\u00f2, \u00e8 sempre pi\u00f9 difficile da evitare. I social hanno interesse a fornire ai loro utenti un&#8217;esperienza personalizzata basata solo sui loro interessi, questo li porta a rifiutare le opinioni degli altri. Gli algoritmi controllano quali contenuti vediamo. Tutti veniamo \u201ctargettizzati\u201d in base all&#8217;et\u00e0, al sesso, all&#8217;orientamento politico e a decine di altri fattori. Questo, oltre a favorire l\u2019interazione con i contenuti pi\u00f9 rilevanti per noi, pu\u00f2 anche essere usato per limitare l&#8217;esposizione a contenuti considerati irrilevanti, dannosi o non utili ai fini commerciali e\/o politici. <\/strong><\/p>\n<p><strong>Facebook, ad esempio, ha un algoritmo complesso che determina, con incredibile precisione, quali sono i contenuti che vediamo con pi\u00f9 piacere. Inizialmente, utilizzava un algoritmo basato solo sugli interessi e sui contenuti postati dagli amici. Dopo l&#8217;aggiunta di nuove funzionalit\u00e0 l\u2019algoritmo iniziale \u00e8 stato trasformato in qualcosa di sempre pi\u00f9 complicato. Oggi prende in considerazione una serie di fattori per determinare quali contenuti visualizzare e quali no. Ogni volta che accedete a un social c\u2019\u00e8 un algoritmo che controlla quante persone hanno reagito a un vostro post, la frequenza di condivisione, il numero di commenti e il tempo trascorso sulla pagina. In base alla cronologia di navigazione, gli algoritmi decidono come personalizzare i contenuti che ognuno deve vedere. Tutti gli algoritmi funzionano in modo simile. <\/strong><\/p>\n<p><strong>Tuttavia, ogni piattaforma ha un algoritmo diverso, quindi \u00e8 importante comprendere come ognuno funziona per capire come ottimizzare la propria esperienza senza diventare uno pupazzo nelle mani di una \u201csequenza d\u2019istruzioni\u201d. I social, per ragioni economiche, incuranti dei pericoli, mostrano solo i contenuti che rafforzano le opinioni degli utenti, anche dei minori. Questo ha effetti devastanti sulla societ\u00e0. Chi \u00e8 esposto solo ai contenuti che consolidano il suo pensiero, non presta pi\u00f9 attenzione alle opinioni alternative e non ha pi\u00f9 una visione equilibrata della realt\u00e0. Questo porta a dei conflitti tra i gruppi con opinioni contrastanti. Cos\u00ec si rendono difficile la comprensione reciproca e la risoluzione pacifica dei problemi. Eppure i sistemi per prevenire la corsa suicida alla polarizzazione ci sarebbero. I social dovrebbero essere obbligati dai governi a modificare gli algoritmi per aiutare gli utenti a scoprire contenuti diversi. <\/strong><\/p>\n<p><strong>Gli utenti dovrebbero essere incoraggiati a partecipare a gruppi di discussione equilibrati e sotto il controllo di \u201camministratori\u201d non polarizzati. Come da pi\u00f9 parti s\u2019invoca, i social dovrebbero anche limitare i contenuti che incoraggiano la polarizzazione, aiutando gli utenti a segnalare e far rimuovere i contenuti \u201cdiscutibili\u201d. Oggi, invece, qualsiasi segnalazione cade nel vuoto, a meno che non si riferisca a gravi reati compiuti sui social o al di fuori di essi. In conclusione, se i governi non costringeranno, in tempi brevi, le cosiddette Big Tech a modificare gli algoritmi, il futuro per l\u2019umanit\u00e0 sar\u00e0 pi\u00f9 simile a un incubo orwelliano che a un sogno utopico. Purtroppo, il tempo a disposizione \u00e8 sempre meno.<\/strong><\/p>\n<p><strong>\u00a0<\/strong><strong>Giuseppe Cristiano<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Prima l&#8217;assalto a Capitol Hill e, poi, quello della Piazza dei Tre Poteri a Brasilia, sono solo alcuni dei segnali d\u2019allarme che dovrebbero richiamare l\u2019attenzione di tutti quelli che in futuro non vogliano far vivere i figli in una societ\u00e0 distopica. Per ridurre al minimo questo rischio occorrerebbe prendere coscienza dei pericoli che la tecnologia [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":177,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[17],"tags":[],"class_list":["post-176","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-costume-e-societa"],"_links":{"self":[{"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/posts\/176","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/comments?post=176"}],"version-history":[{"count":1,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/posts\/176\/revisions"}],"predecessor-version":[{"id":178,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/posts\/176\/revisions\/178"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/media\/177"}],"wp:attachment":[{"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/media?parent=176"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/categories?post=176"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aversa2030.com\/index.php\/wp-json\/wp\/v2\/tags?post=176"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}