I due nodi di Mastodon che stanno per venire al pettine (il post di Siderea)

Il thread pubblicato il 26/11/2023 da Siderea mi è stato segnalato in questo messaggio dall’utente @mapto@qoto.org.

Per rendere più agevole la lettura abbiamo creato dei sottotitoli che, vi avviso, non sono originali dell’autore. Questo è il loro sommario:

Buona lettura

Premessa

Ci sono due problemi che stanno arrivando per Mastodon di cui apparentemente molte persone non sono a conoscenza. Questi problemi stanno arrivando per Mastodon non per qualcosa di intrinseco ma riguardano tutte le piattaforme di social media in crescita. Ma per qualche motivo la maggior parte delle persone non li ha notati.

Il dimensionamento ha effetti sociali

Il primo problema è che il dimensionamento(scale) ha effetti sociali. La maggior parte dei tecnici sa che il dimensionamento ha effetti tecnologici. La stessa cosa vale anche sul lato social.

Ad esempio, prendi le domande “Quanto è probabile, statisticamente parlando, incontrare il tuo capo su questa piattaforma di social media?” e “Quanto è probabile, statisticamente parlando, incontrare tua madre sulla piattaforma dei social media?” Anche se ovviamente esiste un’ampia variazione individuale basata sulle circostanze personali, in generale la risposta a queste domande dipenderà da quanto sia diffusa l’adozione nelle singole comunità.

Il fatto è che le persone si comportano diversamente su una piattaforma di social media se pensano di poterci incontrare il loro capo. Le persone si comportano diversamente se pensano che potrebbero incontrarci la madre.

E non si tratta solo di capi e madri, giusto? Li uso solo come esempi ovvi che hanno molta carica emotiva. Le persone si comportano diversamente anche se pensano che i loro vicini di casa siano o no in quella piattaforma (qv Nextdoor.com).

Il modo in cui le persone si comportano su una piattaforma di social media è una funzione di chi si aspettano di incontrare – e di chi effettivamente incontrano! – su quella piattaforma social. E questo è funzione di quanto sia diffusa l’adozione nelle loro comunità.

E un problema qui è che così tanti presumono che il comportamento degli utenti di una determinata piattaforma di social media sia interamente attribuibile alle caratteristiche e alle possibilità di quella piattaforma di social media!

È molto facile confondere gli effetti dell’essere una piattaforma di nicchia o emergente con qualcosa che la piattaforma sta facendo bene nel suo design.

L’esempio che ho fornito sulle persone che si comportano in modo diverso a seconda della presunta probabilità di imbattersi in gente che fa parte della propria vita non è l’unico esempio di come il dimensionamento influenza il modo in cui le persone interagiscono con una piattaforma di social media. Ce ne sono altri che conosco, e probabilmente molti altri che non conosco.

Ad esempio, gli esperti di informatica sanno che i creatori di virus preferiscono scrivere virus per i sistemi con più utenti. Ecco perché ci sono (oggi e sempre) meno virus per macOS che per Windows.

Probabilmente non l’hai mai pensato in questo modo – un omaggio assurdo all’articolo su Omni che ho letto molto tempo fa e che ha portato questo argomento alla mia attenzione – ma scrivere un virus è una sorta di esorcizzazione del proprio *dolore*. Come in un gioco. Si tratta di incasinare gli altri per divertimento e risatine, se non per profitto, e farlo su larga scala.

Bene, i disagiati – chi gode del disagio altrui come passatempo – saranno più attratti da piattaforme più grandi con più persone con cui scherzare.

L’odio e il trolling deliberatamente dannosi non variano *linearmente* con la dimensione della popolazione, ma *geometricamente* o peggio.

Oppure, in altre parole, una piattaforma di social media può evitare una certa quantità di sofferenza sociale semplicemente perché è piccola, e quindi non vale il tempo dei disagiati che cercano pesci più grandi da friggere. Man mano che la piattaforma cresce, perde quella protezione.

Quindi non si può dire, non con certezza, quanto siano buoni i sistemi di una piattaforma per gestire quel tipo di sofferenza finché non diventa abbastanza grande da iniziare davvero ad attirare sofferenza su larga scala.

Quindi questo è un problema: ci sono semplicemente effetti di dimensione sociale, che influenzano il modo in cui le persone si comportano su una piattaforma di social media, quindi man mano che la piattaforma cresce in adozione, il modo in cui le persone si comportano su di essa cambierà. Di solito non in modi considerati positivi, perché essere una piattaforma di nicchia può evitare vari problemi sociali che non possono più essere evitati man mano che cresce.

Saltano i filtri e la diversità diventa dirompente

L’altro problema credo sia ancora più affascinante.

Quando viene fondata una piattaforma di social media, ci sono effetti di filtro su chi si unisce a quella piattaforma. Ma man mano che una piattaforma di social media cresce, questi filtri – alcuni di essi – svaniscono.

Quando parlo di filtri, intendo cose come i seguenti famosi esempi:

  • Quando è stato fondato Facebook, era riservato solo agli studenti delle università; ci si poteva iscrivere solo con un indirizzo email del college. Di conseguenza, la base utenti iniziale di Facebook era costituita quasi interamente da studenti universitari, con tutto ciò che ciò implica per la classe socioeconomica.
  • Quando è stato fondato G+, è stato inizialmente aperto ai dipendenti di Google e utilizzava un sistema di codici di invito per il lancio, in modo tale che la stragrande maggioranza dei suoi primi utenti erano persone negli stessi mondi sociali dei Googler.
  • Nei tempi d’oro di USENET, la stragrande maggioranza degli utenti di Internet erano studenti universitari che si specializzavano in argomenti tecnici.

Questi spazi sociali, di conseguenza, ereditarono (nel senso orientato agli oggetti) le norme sociali dei dati demografici che inizialmente li popolarono.

Indipendentemente dalle specificità di quali siano le basi utenti iniziali delle diverse piattaforme, una delle conseguenze affascinanti di avere tali filtri è un livello più elevato di omogeneità sociale.

So che non sembra un livello molto elevato di omogeneità sociale quando ci sei dentro. “Di cosa stai parlando, signora?! Abbiamo sia utenti emacs che utenti vi!”

Ma in un modo che al momento è in gran parte invisibile alle persone che ne fanno parte, si trovano in una sorta di bolla culturale. Non si rendono conto che una certa quantità di interazione sociale viene lubrificata da un insieme comune di presupposti su come le persone si comportano e su come le persone *dovrebbero* comportarsi.

Ora, a loro potrebbero non piacere molto quelle supposizioni, potrebbero non essere ipotesi molto belle o quelle che trovano molto piacevoli. Ma sono *conosciuti*. Anche se inconsciamente o in modo rudimentale. E questo conta molto, in termini di riduzione del conflitto o di renderlo gestibile.

Ma, ovviamente, man mano che una piattaforma di social media cresce, questi filtri cambiano o svaniscono.

Facebook ha ampliato l’iscrizione agli studenti delle scuole superiori, per poi eliminare del tutto il requisito di un’affiliazione scolastica.

AOL, che all’epoca spediva supporti di installazione fisici a tutti gli indirizzi postali negli Stati Uniti, non richiesto, ripetutamente, si collegò a USENET e aprì le porte in un evento che viene definito il settembre che non è mai finito.

(Per quelli di voi che non lo sanno, questo termine si riferisce al fatto che in precedenza, un gran numero di utenti sprovveduti che non sapevano come utilizzare USENET si presentavano solo all’inizio dell’anno accademico americano. AOL non è vincolata al calendario accademico e avere un gran numero di nuovi utenti ogni giorno, ha effettivamente sommerso la capacità della cultura USENET di assimilare nuovi membri inviando da allora in poi per sempre un settembre di sciocchezza ogni mese.)

Inoltre, man mano che una piattaforma di social media diventa più popolare, vale sempre più la pena di superare gli ostacoli che scoraggiano l’adozione.

Lo abbiamo già visto per quanto riguarda Mastodon. Laddove in precedenza un sacco di persone non potevano prendersi la briga di capire l’intera federazione, scegliendo in primo luogo un server per impostare un account, ultimamente è sembrato che valesse molto più la pena di risolvere la questione, non solo perché Twitter fa schifo e i suoi utenti cercano un’alternativa, ma perché Mastodon è diventato sempre più attraente man mano che sempre più persone lo utilizzano.

Quindi le persone che una volta avrebbero potuto essere scoraggiate dall’essere utenti di Mastodon non sono più scoraggiate, e questa di per sé è la riduzione di un filtro. Mastodon non filtra più così tanto per le persone che non sono intimidite dalle nuove tecnologie.

Ora potresti pensare che sia una buona cosa, potresti pensare che sia una brutta cosa: sto solo sottolineando che È una cosa.

Nel corso del tempo, man mano che una piattaforma di social media diventa sempre più popolare, i suoi membri iniziano a riflettere in modo sempre più accurato l’intera diversità degli individui in un’area geografica o in un gruppo linguistico.

Ciò può essere una cosa adorabile in termini di principi, ma comporta sfide molto reali – sfide dalle quali, francamente, la maggior parte delle persone viene colta completamente di sorpresa e non è realmente attrezzata per pensare a come affrontarle.

La maggior parte delle persone vive in bolle sociali in una misura che è difficile sopravvalutare. Le nostre società consentono un elevato grado di autonomia nel decidere con chi affiliarsi, quindi a vari livelli ci viene offerta l’opportunità di non trattare con persone che sono troppo spiacevoli per noi da affrontare. Ciò può includere persone di culture che non ci piacciono particolarmente, ma include anche persone che sono semplicemente spiacevoli a livello personale.

Molti anni fa, proprio all’inizio della mia formazione per diventare terapista, stavo conversando con un amico (non un terapista) sulle sfide della sicurezza personale per i terapisti.

Ha detto, riguardo ad alcuni esempi che ho fornito di una minaccia alla sicurezza del terapeuta, “Ma sicuramente nessuna persona ragionevole lo farebbe mai!”

“Sono abbastanza sicuro”, risposi, “la popolazione di persone con cui lavorano i terapisti non è limitata solo alle persone *ragionevoli*.”

Penso spesso a quella conversazione quando parlo di social media. Molte delle persone che si ritrovano nella posizione di decidere come funzionano le piattaforme di social media e come cercare di gestire i problemi sociali su di esse sono persone gentili, di classe media, con istruzione universitaria, colletti bianchi, il cui atteggiamento generale nei confronti delle varie sfide sociali è “Ma sicuramente nessuna persona ragionevole lo farebbe mai!”

Il conflitto come esito spontaneo

Man mano che una piattaforma di social media cresce e la sua base di utenti diventa sempre più riflettente della società sottostante che serve, avrà sempre più utenti che si comportano in modi che la cultura iniziale non considererà “ragionevole”.

Questa è la conseguenza necessaria di una minore omogeneità sociale.

In parte ciò sarà dovuto a semplici scontri culturali, in cui i nuovi utenti provengono da altre culture con altre aspettative e norme sociali. Ma in parte ciò sarà dovuto al fatto che gli utenti più anziani non erano consapevoli di fare affidamento sulla natura di nicchia della piattaforma solo per *evitare* persone antisociali o scarsamente socializzate, e non hanno realmente un piano su cosa fare con loro quando lo fanno. si presentano in numero sempre maggiore, tranne che per andarsene, solo che ora *non* possono* andarsene, non impunemente, perché sono investiti nella piattaforma.

Quindi il livello del conflitto aumenta drammaticamente.

Come nota a margine, una delle conseguenze aggiuntive di questo fenomeno – dove una piattaforma di social media in crescita inizia ad avere un gruppo demografico in cambiamento che è sempre più diversificato culturalmente e comportamentalmente, e inizia a riflettere in modo sempre più accurato la diversità di fondo della società che serve , e di conseguenza si esprime sempre più in conflitto – è che si apre una spaccatura tra la massa generale degli utenti, da un lato, e i soggetti responsabili della governance della piattaforma dei social media, dall’altro.

È qui che le cose vanno davvero male.

Questo perché gli utenti consolidati e chiunque ricopra una posizione di governance – dai moderatori di una piattaforma agli sviluppatori di software, ai proprietari aziendali o agli operatori di istanze – finiscono per avere prospettive radicalmente diverse, perché sono letteralmente testimoni di cose diverse.

Gli utenti affermati, che sono ancora all’interno delle proprie bolle sociali, vivono un’esperienza che sembra loro: “OMG, da dove vengono tutti questi cretini? Le persone responsabili della gestione di questo posto dovrebbero fare qualcosa per sistemare il problema: le cose andavano bene qui l’altro giorno, devono semplicemente riportare le cose come prima. Quanto potrebbe essere difficile?” Sono consapevoli solo dei problemi che incontrano personalmente o che vengono loro segnalati socialmente da altri utenti o attraverso la copertura mediatica della loro piattaforma.

Ma le parti responsabili della governance si rivolgono contro la manichetta antincendio: possono ascoltare TUTTE le denunce. Hanno una visione dall’alto dell’ampiezza, della diversità e della portata dei problemi.

Laddove i singoli utenti vedono un problema e non pensano che sia particolarmente difficile da risolvere, la governance vede un numero enorme di problemi, tutti in una volta, in modo tale che, anche se fossero facili da risolvere, sarebbe comunque schiacciante solo a causa dei numeri. .

Ma ovviamente non sono necessariamente risolvibili così facilmente come pensano gli utenti finali. Gli utenti finali pensano cose del tipo: “Beh, fai X!” dove il team di governance è ben consapevole: “Ma se facessimo X, questo potrebbe risolverlo per te, ma peggiorerebbe la situazione per queste altre persone qui che hanno un problema diverso”.

Gli utenti affermati finiscono per sentirsi sconcertati, feriti e traditi dalla mancanza di supporto sui problemi sociali da parte della governance e, trattandosi di una piattaforma di social media, di solito non sono timidi nel dirlo. Nel frattempo, la governance inizia a sentire (ahimè, non in modo errato) che i suoi utenti non sono in sintonia con ciò che stanno attraversando, con quanto duro stanno lavorando, con quanto impegno si stanno impegnando e con quanto sia incredibilmente spiacevole ciò con cui hanno a che fare. Cominciano a provare risentimento nei confronti dei loro utenti e, di fronte ai diffusi attacchi verbali intemperanti da parte dei loro utenti, a volte diventano sprezzanti nei loro confronti.

La dinamica che ho appena descritto è, ahimè, lo scenario migliore. Aggiungete cose come le differenze culturali tra la governance e gli utenti, le barriere linguistiche, il buon vecchio razzismo, il sessismo, l’omofobia, la transfobia, ecc., e qualsiasi altra complessità, e questo peggiora molto, molto più velocemente.

Un precedente. Su Live Journal

Per chiunque abbia dubbi su questa differenza di prospettiva tra la governance e gli utenti finali, voglio parlare dell’esempio più drammatico che ho riscontrato personalmente.

Su LiveJournal esisteva una “comunità” (forum di discussione di gruppo) chiamata IIRC “internet_sociology”. Più o meno quello che sembrava, solo che era molto più interessato alla sociologia (e all’antropologia) dello stesso LiveJournal, ovviamente, rispetto a qualsiasi altro sito di Internet.

Ad ogni modo, un giorno nell’IIRC, alla fine degli anni 2000, qualcuno ha pubblicato lì un’immagine dataviz del grafico sociale COMPLETO di LiveJournal.

E quello fu il momento in cui il LiveJournal di lingua inglese scoprì che esisteva un’altra METÀ di LJ che parlava russo, di cui non sapevano nulla e con la quale non c’era quasi alcun legame sociale.

Per gli utenti di LJ che avevano appena scoperto l’esistenza di ЖЖ, è stato un po’ come scoprire il continente perduto di Atlantide. I dativis lo hanno detto molto chiaramente. Rappresentava il grafico sociale della piattaforma su cui si trovavano come due enormi mezzelune appena collegate, ma più o meno della stessa dimensione. E da sempre, la governance di LJ è stata anche governance di ЖЖ.

E si scopre, assolutamente non sorprendente, che LJ e ЖЖ avevano culture molto diverse, perché avevano avuto filtri di adozione diversi con cui iniziare. LJ inizialmente era stato adottato in stragrande maggioranza dagli studenti emo delle scuole superiori come piattaforma per *diario* (LJ una volta annunciò scherzosamente che avrebbe aggiunto un server extra solo per indicizzare la parola “depressione”.) ЖЖ era stato inizialmente adottato da adulti politicamente attivi – età media , sulla trentina – come piattaforma di *blogging*.

Si scopre, cosa assolutamente non sorprendente, che queste due popolazioni di utenti desideravano funzionalità *molto* diverse e avevano problemi abbastanza diversi.

Uno dei modi in cui LJ/ЖЖ ha infilato quell’ago è stato quello di rendere alcune funzionalità letteralmente dipendenti dal set di caratteri scelto dall’utente. LiveJournal aveva letteralmente “caratteristiche cirilliche”: caratteristiche che non avevano nulla a che fare con il set di caratteri stesso, ma che si attivavano per un account solo se sceglieva quel set di caratteri.

Non sorprende inoltre che, quando un’azienda russa abbia acquistato LJ/ЖЖ da un’azienda americana, gli attori della governance abbiano iniziato a dare priorità ai problemi degli utenti di ЖЖ e alle richieste di funzionalità, con notevole confusione e angoscia degli utenti di LJ che non erano a conoscenza dell’intera esistenza di ЖЖ. “Perché mai dovremmo volere una funzione che faccia *questo*? Perché dovrebbero pensare che lo vorremmo? LJ è *pazzo*? Cosa stanno cercando di fare in questo posto?” No, qualunque caratteristica fosse, in realtà era piuttosto interessante per qualcuno che è un blogger politico che cerca di massimizzare la propria portata, vale a dire gli utenti di ЖЖ.

Puoi vedere come si può aprire una spaccatura piuttosto enorme tra gli utenti finali, che non hanno letteralmente alcuna idea di alcuni dei fatti più basilari della piattaforma – come, diciamo, l’intero 50% della base di utenti è radicalmente diverso da loro nella lingua e la cultura, i modelli di utilizzo e le opportunità necessarie – e la governance che sta cercando di destreggiarsi tra tutte le incudini, alcune delle quali sono in fiamme.

C’è un piccolo esercizio che si può fare, se si è un utente finale di una piattaforma di social media (o del resto una parte di governance di una piattaforma di social media di nicchia che deve ancora raggiungere la cresta dell’onda di diversità) e si vuole avere un’idea migliore di ciò che la governance deve affrontare. Se hai mai avuto un lavoro di vendita al dettaglio a che fare con il pubblico in generale, ricorda semplicemente come si comportava il pubblico in generale quando servivi ai tavoli o gestivi la cassa o prendevi ordini o rispondevi al telefono.

E se non hai mai svolto un lavoro del genere, o è passato un po’ di tempo, vai in un posto come r/TalesFromRetail o r/TalesFromYourServer di Reddit e controlla il genere di cose che le persone che hanno a che fare con il grande pubblico si trovano a dover fare affrontare.

E poi riflettete su questo: tutte quelle persone irrazionali, autorizzate, bellicose e odiose sono libere nel mondo, e man mano che la vostra piattaforma di social media cresce, alla fine li recupererà dal fondo dello stagno.

Perché questo – e peggio (molto peggio) – è ciò con cui deve confrontarsi la governance.

Non intendo solo dire che la governance deve fare i conti con persone maleducate che si comportano in modo scortese con loro. Innanzitutto il problema è molto peggiore della semplice maleducazione, e i problemi sociali vanno ben oltre i problemi tra due parti che sono in un certo senso in conflitto. Ma in secondo luogo, e cosa ancora più importante, *creava un problema* quando qualcuno è “scortese” con qualcun altro. Non devono solo avere a che fare con persone odiose che si comportano in modo odioso nei loro confronti, devono in un certo senso fare qualcosa riguardo all’odio in generale, e sono spesso messi nella posizione di dover presentarsi e affrontare la persona odiosa in un certo senso, o altrimenti fare qualcosa per frustrare la persona odiosa, il che probabilmente non la renderà meno odiosa e non porterà nemmeno il partito di governo all’attenzione della persona odiosa.

E se sei tu stesso un membro del governo che si trova ad avere sempre più difficoltà a empatizzare e rispettare i tuoi utenti finali, forse ricorda com’era *essere* un utente finale ed essere in gran parte incapace di gestire tutti i tipi di problemi sociali se stessi e di essere costretti a fare affidamento su autorità che possono essere antipatiche, attivamente ostili e/o semplicemente incapaci e resistenti agli indizi.

Voglio dire, rifletti su com’è stato essere un utente Twitter nell’ultimo anno. Solo non permetterti di usare il poliziotto per “Ma non devi essere un utente di Twitter, puoi lasciare Twitter”.

Molte persone, soprattutto nel Fediverso, finiscono per diventare governance proprio perché non vogliono più essere privati del loro potere. Vogliono essere le persone che prendono decisioni su come risolvere i problemi sociali sulla loro piattaforma di social media preferita, e Mastodon/etc rende tutto ciò molto più semplice che cercare di trovare un lavoro con il team Trust and Safety di Twitter.

Quindi vale la pena ricordare che se sei parte della governance del Fediverso, per te è fantastico, hai tutti potere da tale accordo, ma i tuoi utenti finali sono pur sempre utenti finali. Ottengono la ricerca se scegli di dare loro la ricerca. Fanno ancora affidamento sul tuo giudizio sulle segnalazioni che presentano su altri utenti per agire contro i malintenzionati sulla loro istanza. Si sentono ancora impotenti come lo erano su Twitter. Possono scegliere quali campi del signore coltivare, ma sono pur sempre contadini.

Ma sto divagando.

Tornando al mio punto più ampio sui due problemi che stanno arrivando per Mastodon: vedo molte persone fare molte supposizioni su come stanno funzionando le cose, in termini di risoluzione dei problemi sociali, che sono fondamentalmente basate sul non sapere quanto pesano questi due problemi.

Contro l’empirismo

Questo mi mette nella strana posizione di argomentare effettivamente contro l’empirismo. Di solito sono un grande fan dello sperimentalismo “buttalo contro il muro e vedi se si attacca” come rimedio per teorizzare con la testa tra le nuvole.

Ma questa è davvero una situazione in cui la lungimiranza è disperatamente necessaria.

Semplicemente non è accurato estrapolare l’efficacia dei vari tentativi di risolvere i problemi sociali su Mastodon in base a quanto bene hanno funzionato finora.

Quando stai scalando una curva di adozione, le prestazioni passate non sono una garanzia di risultati futuri.

Un paio di decenni fa, Clay Shirky tenne un discorso che poi pubblicò come saggio, “Il gruppo è il suo peggior nemico“, su come ancora e ancora e ancora le persone che sviluppano spazi sociali online rimangono sorprese dalle cose che accadono sui loro spazio online – cosa che era accaduta in precedenza sugli spazi sociali online di ALTRE parti e di cui le parti che governavano quegli spazi sociali avevano tentato di mettere in guardia gli altri.

Ora, ho un sacco di riserve sui dettagli specifici di quel saggio, ma aveva sicuramente ragione su come ripetutamente accadono cose brutte alle piattaforme social, e la governance che le ha vissute cerca di avvisare gli altri, ed essa viene ignorata in modo abbastanza affidabile.

Forse non potremmo farlo questa volta?

Prospettive

Ora, di certo non ho una proposta di risposta giusta a cosa dovrebbe fare una piattaforma di social media per risolvere tutti questi problemi che ne conseguono, e spero sicuramente che nessuno pensasse che lo avessi fatto.

Ma quello che devo proporre è una serie di atteggiamenti e approcci per costruire una piattaforma di social media per cercare di evitare alcuni dei risultati negativi che altre piattaforme hanno sperimentato.

Il punto più importante per me qui è semplicemente quello di non avere una sorta di sciocca arroganza nel pensare che, poiché qualcosa non è stato un problema *finora*, è stato risolto.

Come per tante cose, penso che sia di enorme aiuto esaminare la storia dei precedenti tentativi di ottenere un avvertimento anticipato sulle circostanze in cui ci si potrebbe trovare. E, ovviamente, nel caso dei social media, con “possono” intendo ” lo farà quasi sicuramente”.

Ci sono cose che sicuramente non hanno più bisogno di essere sorprese.

E voglio sottolineare qualcos’altro che probabilmente è cruciale per imparare dagli errori del passato.

Quando costruiamo una piattaforma di social media – quando costruiamo qualcosa che consenta alle persone di interagire su Internet – stiamo facendo qualcosa di molto simile alla costruzione di una città pianificata. Stiamo prendendo decisioni sulle strutture attraverso le quali le persone fluiranno, si muoveranno, riposeranno, si incontreranno e interagiranno tra loro.

Quando gli architetti progettano edifici fisici e quando gli urbanisti progettano città fisiche, prendono decisioni sulle strutture fisiche con l’intenzione che tali strutture modellino il comportamento umano. Le persone che costruiscono anfiteatri sono persone che vogliono che ci siano discorsi pubblici a cui molte persone qui, siano essi discorsi politici o spettacoli teatrali. Le persone che costruiscono templi sono persone che vogliono che ci sia un culto religioso collettivo. Le persone che costruiscono strade vogliono che ci siano viaggi.

Naturalmente gli architetti possono scegliere di costruire edifici per soddisfare altri criteri, oltre agli effetti sulle persone che interagiscono con essi. Possono scegliere di realizzare edifici che sostengano l’ambiente, o di risparmiare denaro ai proprietari, o di raggiungere qualche fine politico. Possono anche costruire edifici che abbiano effetti sociali non solo attraverso le loro possibilità economiche ma anche attraverso l’estetica, ad esempio essere belli per migliorare l’aspetto di un quartiere o per ingrandire un’aristocrazia.

Ma soprattutto gli edifici sono costruiti per essere utilizzati, e come tali sono strumenti, e noi li giudichiamo, come facciamo con tutti gli strumenti, in base a quanto sono adatti al loro scopo, qualunque esso sia.

E lo scopo degli edifici è quello di consentire alle persone di interagire o evitare di interagire in vari modi.

Quindi gli architetti ci pensano molto. È così.

Ingegneria (architettura?) sociale

Coloro che mettono insieme piattaforme di social media devono pensare allo stesso genere di cose.

Dobbiamo essere molto consapevoli del fatto che le decisioni prese su come funziona una piattaforma sono decisioni che influenzano il modo in cui interagiranno le persone che utilizzano quella piattaforma.

Dovrebbe esserci una sorta di intenzionalità – che è qualcosa in cui penso che Mastodon stia facendo molto meglio di molti progetti di social media – riguardo alle decisioni sulla funzionalità.

Ma quell’intenzionalità deve andare oltre le semplici buone intenzioni. Buone intenzioni scarsamente informate portano a risultati negativi che non erano mai stati previsti ma che, tuttavia, sono comunque negativi.

C’è molto da dire per comprendere che le decisioni su come le piattaforme di social media *funzionano* sono tentativi deliberati di modellare – o di *ingegnerizzare* davvero – la vita sociale umana su vasta scala. Su una scala così vasta, infatti, che non è sbagliato descriverlo come un tentativo di *ingegnerizzare le società*.

È un peccato che il termine “ingegneria sociale” abbia in passato un significato gergale tra i programmatori di computer per indicare un tipo di attacco a un sistema che sfrutta la fragilità umana anziché i difetti del software, perché questo – la progettazione delle piattaforme di social media – è veramente *ingegneria sociale*.

Da dove mi trovo, con un piede sia nelle scienze tecnologiche che in quelle sociali, mi sembra davvero chiaro che non vi sia la sensazione generale che esista un campo come l’ingegneria della società online. Non le loro tecnologie sottostanti, ma l’uso dell’implementazione tecnologica per creare spazi sociali, che danno vita a determinate realtà sociali.

Questa cosa non viene presa abbastanza sul serio. Al contrario, viene trattata con molta leggerezza.

Il mondo dei social media è pieno di persone che tirano fuori idee dal culo e sperano che tutto funzioni.

Le persone che sono state in giro alcune volte in un ruolo di governo hanno iniziato ad accumulare un corpus di conoscenze. Casi di studio, osservazioni fatte in trincea.

Per lo meno, avvalersi di ciò che hanno da condividere è un buon primo passo.

Ma se dovessimo prenderlo sul serio come ingegneria, beh, questo suggerisce alcune cose, non è vero?

Definire i problemi

Ciò suggerisce che dovremmo acquisire un po’ più di scienza a riguardo. Suggerisce di iniziare a imporre un po’ di rigore.

Gli ingegneri affrontano problemi ben specifici e, se i problemi che devono affrontare non sono ben specificati, o non risolveranno o presenteranno le proprie specifiche.

Probabilmente ci farebbe bene specificare meglio i problemi che pensiamo di risolvere.

Non posso dirvi quante conversazioni ho visto sul tema della “moderazione” e quanto sia necessaria in cui nessuno si è mai preso la briga di stabilire cosa esattamente pensa che un moderatore debba realizzare.

Voglio dire, sono tutti loro. Sono su Internet dagli anni ’80 e non ho mai visto nessuno fermarsi a parlare effettivamente di ciò che pensava che i moderatori stessero cercando di fare o avrebbero dovuto provare a fare.

Ciò rende un po’ complicato valutare se ai moderatori vengono forniti o meno gli strumenti adeguati per svolgere il proprio lavoro. E senza avere effettivamente alcun accordo, comprensione o addirittura specificazione di quali siano quei lavori.

Questo esempio specifico è nella mia mente in parte a causa della lettura di @kissane l’articolo sul ruolo di Facebook nel genocidio dei Rohingya in Myanmar. Una delle cose menzionate è che l’apparato interno di Facebook per quello che potremmo chiamare moderazione era il suo “‘Compassion Team’ focalizzato sul bullismo”. Come molte piattaforme di social media costruite dal tipo di persone che costruiscono piattaforme di social media, Facebook ha interpretato il problema della moderazione come quello di prevenire o scoraggiare i conflitti interpersonali sulla piattaforma.

Ma il problema che si stava verificando nelle parti di Facebook in lingua birmana non erano le persone in disaccordo tra loro o che esprimevano conflitto tra loro. Era il loro *essere d’accordo* tra loro.

Accettando di andare a uccidere i loro vicini.

Apparentemente questo non era nemmeno sul radar di Facebook.

Ciò solleva alcune domande fondamentali e piuttosto interessanti su quale sia il ruolo della moderazione su una piattaforma di social media. È compito di una piattaforma di social media impedire alle persone di utilizzarla per collaborare e commettere crimini?

Storicamente, molte persone che hanno creato piattaforme di social media hanno insistito sul fatto che non è assolutamente compito della piattaforma – o delle persone che la gestiscono – farlo.

Ma se non è compito della piattaforma farlo, di chi è il compito, quando una piattaforma, per le sue possibilità, rende i crimini del mondo reale – crimini del “mondo reale” orrendi e molto gravi come un vero e proprio genocidio – non solo più probabili, ma è molto più probabile che stiano effettivamente consentendo un crimine che altrimenti non accadrebbe?

Perché le nostre società – le nostre società più grandi, basate sul mondo della carne – dovrebbero tollerare la costruzione e il funzionamento di piattaforme di social media che le destabilizzano e le danneggiano?

O in altre parole, perché le nostre società dovrebbero tollerare l’esistenza di piattaforme di social media progettate e gestite *irresponsabilmente*, che aumentano la violenza e altri comportamenti antisociali?

Quindi si scopre che l’incapacità della cultura di Internet di avere effettivamente un discorso su ciò che anche i moderatori dovrebbero fare è un errore letteralmente letale.

E questo esempio è solo una piega nel dibattito molto, molto più ampio su cosa sia la moderazione e sulla diversità di cose che può essere, e forse dovrebbe essere.

Una conversazione che deve avvenire prima che tu possa avere una conversazione che dica: “Ok, cosa può significare la moderazione, quali cose pensiamo debba essere presente sulla nostra piattaforma e cosa dobbiamo fare nella progettazione della nostra piattaforma, per realizzarla e farla funzionare nel modo in cui pensiamo che dovrebbe?”

Il caso Reddit

Considera cosa è accaduto di recente con Reddit che ha disattivato la sua API, in modo tale che gli strumenti su cui facevano affidamento i suoi moderatori non sono più a loro disposizione. La struttura di Reddit è quella di consentire a chiunque di avviare il proprio forum e di dare loro l’autorità di moderarlo come, in prima approssimazione, ritengono opportuno. Ma non fornisce gli strumenti necessari – né, più, consente a terzi di fornire tali strumenti – in modo tale da poter eseguire molte funzioni di moderatore, quindi c’è un limite a quali tipi di moderazione possono avvenire lì e quanto bene può essere assolto. Ciò ha letteralmente cambiato il tipo di conversazioni e il tipo di forum che possono verificarsi su Reddit.

Ora, non sono coinvolto in ciò che sta accadendo su Reddit. Non conosco la logica delle loro decisioni. Ma conosco un sacco di utenti Reddit molto premurosi che hanno spazi da moderare su Reddit e hanno spiegato in modo molto dettagliato e approfondito (“Concision non è il nostro marchio.” – un mod di r/AskHistorians che spiega su Twitter proprio questa cosa) quali sono le loro esigenze e perché si opponevano alla disattivazione dell’API da parte di Reddit.

Reddit ha deciso a livello aziendale che supportare tali offerte non era importante, o almeno meno importante di qualcos’altro che era in conflitto con esse.

Reddit ha preso una decisione progettuale che ha cambiato la natura di ciò che *potrebbe* significare su Reddit. Ne hanno ridotto la portata. Ciò, a sua volta, ha cambiato il modo in cui i moderatori potevano interagire con gli utenti che moderavano e ciò a sua volta ha cambiato il modo in cui gli utenti interagivano tra loro.

Come ho detto, non sono parte del pensiero aziendale interno di Reddit. Ma penso che sia un’ipotesi abbastanza plausibile da dire: la decisione di Reddit non era basata su ciò che avrebbe ottimizzato le funzioni sociali di Reddit. Quando Reddit ha preso questa decisione, sono abbastanza sicuro che non sia stata una decisione di *ingegneria sociale*. Non è stato creato per far funzionare Reddit meglio in senso sociale. Nessuno ha preso questa decisione pensando: “In realtà, ridurre la capacità dei moderatori di svolgere compiti che fanno parte della moderazione migliorerà effettivamente la realtà sociale di Reddit in questo modo particolare.”

Nella migliore delle ipotesi, questa decisione è stata presa per ottimizzare qualcos’altro in piena consapevolezza: “Sì, questo sarà dannoso per il mondo social di Reddit, ma non c’è niente da fare, a causa di altre considerazioni che superano la qualità dell’ingegneria sociale in questo momento.”

Ma ovviamente l’effetto sociale su Reddit potrebbe essere stato semplicemente ignorato o scontato.

No al determinismo, si all’approccio antropologico

È una cosa abbastanza comune che le persone si facciano beffe dell’idea che le opportunità di una piattaforma abbiano qualcosa a che fare con il modo in cui le persone si comportano su di essa e che se prendi le decisioni sbagliate su come funziona la tua piattaforma otterrai risultati che hai meritato. Non mi piace.

È una cosa abbastanza comune che le persone assumano l’atteggiamento: “Oh, cavolo, che differenza fa se questa funzionalità esiste? Le persone faranno comunque quello che vogliono.”

Una delle cose che Mastodon sta facendo è una base di utenti che per lo più non si arrende in quel modo. Mastodon è pieno di persone che credono profondamente che il modo in cui funziona il software e quali sono le sue opportunità siano in realtà una questione immensa per lo svolgimento della vita sociale su Mastodon.

Il problema non è convincere i mastodoniani che queste cose contano, ma convincerli a non prendere le loro prime impressioni derivanti da esperienze traumatiche su Twitter come verità evangeliche.

Probabilmente è abbastanza facile per i dirigenti di Reddit tirare su col naso e dire: “Beh, conosci la base di utenti, si stanno dando da fare per nulla; capiranno come moderare senza questi strumenti, non sono affatto critici.”

I mastodoniani sono più intelligenti nel farlo, ma abbiamo qualche problema a cadere al passaggio successivo. È bello che le persone qui non disprezzino l’idea che le strettoie ergonomiche (affordance) influenzino il comportamento degli utenti, ma il passo successivo è scoprire effettivamente come le le strettoie ergonomiche influenzino effettivamente il comportamento degli utenti.

Ad esempio, potremmo immaginare un Reddit più illuminato che non taglia fuori i suoi moderatori chiudendo l’accesso API di cui avevano bisogno. Ma potremmo anche immaginare un Reddit ancora più illuminato di così, che abbia integrato le proprie versioni di quegli strumenti di moderatore direttamente nella propria piattaforma, in modo che i moderatori non debbano utilizzare strumenti di terze parti attraverso l’API.

Ma potremmo anche immaginare un Reddit ancora più illuminato di *quello*.

Potremmo immaginare una realtà alternativa, Reddit ancora più illuminato, che non solo avesse i propri strumenti di moderatore integrati, ma che in realtà si preoccupasse della questione se avesse o meno gli strumenti di moderatore giusti e di come tali strumenti influenzassero il funzionamento di Reddit. , socialmente.

Potrebbe fare cose come tenere discussioni di focus group con i moderatori, inviare antropologi in vari sub per osservare il comportamento dei moderatori e per oscurare virtualmente i moderatori mentre svolgono i loro compiti di moderazione, strumenti di moderatore di test A/B, avere beta di attivazione di nuovi strumenti di moderatore .

Sai, cose fondamentali per un’azienda adulta, quando un’azienda si preoccupa davvero di come funziona il suo software.

Ma non solo.

Potremmo immaginare un Reddit ultra illuminato che abbia effettivamente delle opinioni su come vuole che il suo mondo sociale funzioni e che prenda effettivamente decisioni del tipo: “Non ci piacciono alcune cose che pensiamo siano forse il prodotto dei moderatori che non forniscono una copertura 24 ore su 24, 7 giorni su 7″. di gruppi ad alto volume, quindi scopriremo se esiste qualche modo, o più modi, per risolvere il problema. Esamineremo se ci sono cose che possiamo fare per facilitare i moderatori a fornire una copertura 24 ore su 24, 7 giorni su 7, oppure ovviando alla necessità che i moderatori forniscano una copertura 24 ore su 24, 7 giorni su 7, e poi valuteremo se ha funzionato o meno per rimediare alle cose che abbiamo visto come problemi che pensiamo siano causati da ciò.”

Rigore scientifico

Nel campo dei servizi sociali, quest’ultima parte cruciale è chiamata “valutazione del programma”.

Lo considero un po’ come chiamare i propri colpi a biliardo. Decidi quale cambiamento vorresti vedere nel sistema per il quale stai progettando, proponi un “intervento” (basato sullo studio del problema, sulla lettura degli approcci di altre persone nel tentativo di risolvere il problema e magari facendo un sacco di cicli di sperimentazione iterativa), decidi, in anticipo, come determinare se il problema è stato risolto o meno, quindi implementi l’intervento, e poi controlli quei criteri che hai precedentemente identificato come quelli che determineranno se o meno il problema è stato risolto.

Questo intendo per rigore. Questo è piuttosto scientifico, no? Non è necessariamente un esperimento controllato, ma ha la forma di un esperimento. Ma non è nemmeno un *semplice* esperimento. Non è solo una prova per vedere se qualcosa funzionerà o meno. È un tentativo di fare effettivamente qualcosa che funzioni. Con alcuni test leggermente più rigorosi per verificare se lo ha fatto.

Parte di ciò che lo rende così rigoroso è la sua formalità, con il compito di decidere in anticipo quali saranno i criteri di successo. Ciò a sua volta richiede una certa dose di riflessione seria sui fenomeni sociali e di essere effettivamente espliciti su cose che, francamente, di solito vengono semplicemente agitate quando parliamo di piattaforme di social media. Domande come “cosa ci aspettiamo che raggiungano i nostri moderatori?”

Significa fare cose difficili come chiedere: “Va bene, vogliamo che le persone si sentano più sicure: come potremo dire che le persone si sentono più (o meno) sicure? Se le persone si sentissero più o meno sicure, come potremmo saperlo? Come potremmo misurarlo? Osservarlo nei dati? Cos’è che presumiamo cambierà nel comportamento delle persone in base a quanto si sentono sicure?”

Nelle scienze sociali, questo si chiama “operazionalizzare” un’astrazione, un concetto o un sentimento.

Una delle cose che potresti notare dal fatto che ora ho menzionato due volte che ci sono altri campi che hanno una terminologia tecnica che si applica qui: Oh ehi. Ci sono altri campi che contengono indizi pertinenti. Hanno metodologie e altri fantastici giocattoli con cui potresti voler giocare.

L’ingegneria è, in prima approssimazione, scienza applicata. Quindi, se vuoi progettare i social, potresti voler iniziare a contattare gli scienziati sociali e le persone in altri campi che applicano le scienze sociali.

Questa è un’altra cosa che Mastodon sta cercando di fare: ci sono scienziati sociali qui da qualche parte.

Ora, apprezzo che ciò che propongo qui abbia un problema di bootstrap. Non so se qualcuno dei decisori su codice, protocolli o singole istanze abbia la capacità di ottenere l’aiuto delle persone su Mastodon con quegli indizi professionali, e non sono sicuro che Mastodon abbia le possibilità per riunirli.

La trappola dell’arroganza

Ma a parte tutte le altre sfide nel collegare queste parti, c’è quella dell’arroganza, a cui voglio tornare.

Parte del motivo per cui così tante piattaforme di social media, ancora e ancora e ancora e ancora, si sono trovate scioccate e sorprese dalle cose che sono accadute loro che altre piattaforme di social media precedenti hanno attraversato (e di cui hanno cercato di raccontare loro) era perché presumevano di sapere tutto quello che avevano bisogno di sapere. Presumevano che la loro conoscenza fosse sufficientemente completa. Non andavano a cercare informazioni e consigli che li guidassero, perché pensavano di non averne bisogno.

Non gli è mai venuto in mente che lo facessero.

E questa è una sorta di arroganza. È una sorta di fredda e discreta arroganza intellettuale. Non è turbolento, non si vanta. Si presume e basta.

E questo è un problema.

Perché il punto è questo: le persone con che hanno individuato questi indizi sociali non busseranno alla porta per ficcarteli in gola.

Le persone con gli indizi – le persone che sono state coinvolte in precedenza nella governance dei social media, gli scienziati sociali, le persone che valutano i programmi sociali, gli urbanisti e gli architetti, i professionisti psicologi – faranno le stesse cose che hanno sempre fatto. Scrivere articoli di notizie, post di blog e thread sui social media, tenere conferenze e convegni, insegnare lezioni e partecipare a simposi e colloqui, condurre esperimenti scientifici e pubblicare su riviste di ricerca e in generale gettare i propri messaggi in bottiglie nei mari delle informazioni nella speranza che raggiungeranno le rive di coloro che ne trarrebbero beneficio.

Non verranno a marchiarti quegli indizi sulla fronte.

Se li vuoi, dovrai *andare a prenderli*.

E nessuno va a prendere queste risorse, nessuno cerca questa competenza, nessuno va oltre l’ingenua arroganza di dare per scontato che non ci sia nulla da imparare, che abbiano già capito tutto su questa piattaforma di social media.

Uno stimolo

Ciò che spero di ottenere con questo thread è stuzzicarti con la prova che ci sono cose da sapere che probabilmente non sai ancora, ma che, se solo lo sapessi, ti piacerebbe molto sapere. Cose che ti farebbe bene sapere.

Spero di stimolare la tua curiosità nell’affrontare il presupposto che potresti nutrire nel tuo cuore e che questa cosa dei social media in realtà non è poi così difficile, basta farlo nel modo giusto e qual è il modo giusto? davvero ovvio.

Sto tentando di invogliarti con la conoscenza che è là fuori (e nella misura in cui ci sono esperti in queste cose qui su Mastodon, qui con noi) a desiderare quella conoscenza abbastanza da andare a cercarla.

E chiederlo.

Tutti voi.

Questo messaggio non è solo per “i responsabili”.

Per prima cosa, questo è un sistema *federato*. Ciò significa che le probabilità che tu, personalmente, potresti essere una “persona responsabile” in un certo senso aumentano molto. E se non oggi, forse domani.

Inoltre, alcuni casi sono democrazie vere e proprie. Tutti su di loro sono persone responsabili.

Ma cosa ancora più importante, hai una voce. E se sei su Mastodon probabilmente lo usi.

Spero di convincervi a usare quella voce non solo per chiedere rimedi che siete certi funzioneranno per risolvere problemi che non avete realmente specificato. Ti invito a rispondere a domande curiose come “Mi chiedo quali siano i pro e i contro di questo?” e “Mi chiedo cosa mi dà questa impressione, e come posso verificare se è vero o no?” e “Mi chiedo se ci sono altre piattaforme di social media che hanno trovato una soluzione a questo?”

Vorrei incoraggiarti a usare la tua voce per porre domande, come “Stiamo usando la stessa definizione di ‘comportamento inaccettabile’?” e “Quale problema vedi risolto dal tuo suggerimento?” e “Quali sono gli esempi che stai immaginando o ricordando quando dai quel suggerimento?”

E vorrei anche incoraggiarti a *non* usare la voce – a ricordarti di ascoltare, osservare, contemplare. Potresti aver sentito quel vecchio detto secondo cui la comunicazione è una strada a doppio senso: in realtà è falso. La comunicazione è uno stretto ponte a senso unico che il traffico deve attraversare a turno. Se stai inviando, non stai ricevendo. Se la tazza da tè della tua comprensione sembra troppo piena delle tue comprensioni precedenti, assaporate troppo preziosamente, nessun altro ti verserà una porzione dalla propria teiera.

Come ho detto, nessuno verrà a forzarti gli indizi in gola. Se sembri non volerli, non ti verranno dati.

La cosa più interessante che possiamo fare con le nostre voci è aprire spazi di discorso. Ed è per questo che mi piacerebbe di più arruolarti.

Quello che vorrei

Mi piacerebbe vedere emergere su Mastodon, finalmente, un discorso sulle piattaforme di social media che incentri l’ingegneria sociale come una cosa reale. Ciò si basa sull’idea che dovremmo essere curiosi di sapere come funzionano effettivamente le cose e verificare le nostre ipotesi rispetto alla realtà, che dovremmo assumerci la responsabilità di come il nostro ambiente virtuale costruito modella la società che lo attraversa e la società in cui riposa, che ci sono ci sono cose che vale la pena conoscere qui, cose che vale la pena scoprire e persone interessanti con cui parlare.

Fondamentalmente spero di *interessarti* all’intero argomento dell’ingegneria sociale, nel nuovo senso in cui lo intendo. Perché se ti interessa e se ne parli con altre persone interessate, e l’interesse cresce, allora si nutrirà di se stesso e crescerà come campo.

E se cresce come idea, se cresce come argomento di interesse, metterà in contatto le persone, coinvolgerà più persone, stimolerà la curiosità, la scoperta, la sperimentazione e il design.

E cambierà la cultura in cui le persone che prendono le decisioni le prendono. Ne farà una cultura in cui è normale considerare domande come “Come faremo a sapere se riusciremo a risolvere questo problema?” e “Quale tecnica precedente esiste in questo spazio problematico?” e “Quali tipi di sfide sono problemi in sospeso sul campo in questo momento?” e “Qual è l’effetto della nostra piattaforma sulla società più ampia a cui appartengono i suoi membri?”

Mi sembra probabile che un simile ambiente sociale avrà effetti benefici sulle piattaforme di social media che ne emergono.

Ma, lo confesso, non l’ho ancora reso operativo.

Siderea, Sibylla Bostoniensis @siderea@universeodon.com Psicoterapeuta-programmatore musicista-storico outsider-antropologo sanitario-blogger scientifico-spiegatore critico sociale saggista-saggista e indovino. Saggia professionista e saggia dilettante. #PsychiatricNosology #HistoryOfScience #AnthropologyOfMedicine #EarlyMusic #EvenEarlierMusicThanThat #Galliards #Goliards #LoGaiSaber #Pestilence #TheSoCalledUSHealthcareSystem
Il profilo di @siderea

Se vuoi contattarmi puoi farlo qui!

Siderea, Sibylla Bostoniensis @siderea@universeodon.com Psicoterapeuta-programmatore musicista-storico outsider-antropologo sanitario-blogger scientifico-spiegatore critico sociale saggista-saggista e indovino. Saggia professionista e saggia dilettante. #PsychiatricNosology #HistoryOfScience #AnthropologyOfMedicine #EarlyMusic #EvenEarlierMusicThanThat #Galliards #Goliards #LoGaiSaber #Pestilence #TheSoCalledUSHealthcareSystem

Una replica a “I due nodi di Mastodon che stanno per venire al pettine (il post di Siderea)”

  1. […] ragiona sui rischi che corre il Fediverso. Il filo del discorso è molto lungo ed è stato tradotto in italiano dall’utente con nome malmostoso di Il Fediverso italiano fa […]

    "Mi piace"

Lascia un commento

Progetta un sito come questo con WordPress.com
Comincia ora