Πριν απασχολήσει την επικαιρότητα λόγω των αναρτήσεων παραπληροφόρησης για την πανδημία – και σίγουρα πολύ πριν τις διαμαρτυρίες για τις «πεσμένες» αναρτήσεις για την απεργία πείνας του Δημήτρη Κουφοντίνα – το Facebook είχε βρεθεί στο μάτι του κυκλώνα για το διαβόητο σκάνδαλο της Cambridge Analytica.
Φυσικά, ανησυχίες για την εισβολή του κοινωνικού δικτύου στην προσωπική μας ζωή (και κυρίως στα προσωπικά μας δεδομένα) είχαν εκφραστεί από πολύ νωρίτερα, όμως τότε, με τις καταγγελίες για διαρροή δεδομένων των χρηστών και εμπλοκή Ρώσων χάκερ στις αμερικανικές εκλογές, μέσω της αξιοποίησης των αλγορίθμων της πλατφόρμας που προωθούσαν αναρτήσεις που περιλάμβαναν ρητορική μίσους και fake news, ήταν που κατέστη ορατή η πραγματική του δύναμη.
Ένα από τα κεντρικά πρόσωπα της υπόθεσης ήταν και ο Χοακίν Κινιονέρο Καντέλα, ο διευθυντής του τμήματος Τεχνητής Νοημοσύνης του Facebook, ο οποίος βρέθηκε επικεφαλής των προσπαθειών για την άμβλυνση της κατακραυγής απέναντι στην εταιρεία – και, δευτερευόντως, όπως αποδείχθηκε, την τροποποίηση των μεθόδων της με τρόπους που θα προλάμβαναν τέτοιου είδους «δυσάρεστα περιστατικά» στο μέλλον.
Η ομάδα που ίδρυσε ο Μαρκ Ζούκερμπεργκ λίγο καιρό μετά την απολογία του για το γεγονός ονομάστηκε Εργαστήριο για την Κοινωνία και την Τεχνητή Νοημοσύνη (SAIL) και πέρσι συγχωνεύθηκε με μια άλλη ομάδα, που εργάζεται σε ζητήματα προστασίας δεδομένων, για να σχηματίσουν από κοινού το Responsible AI (Υπεύθυνη Τεχνητή Νοημοσύνη).
Μέχρι να τεθεί επικεφαλής της ομάδας αυτής, ο Κινιονέρο ουσιαστικά είχε τον ακριβώς αντίθετο ρόλο: Να δημιουργεί αλγορίθμους που θα προσφέρουν στους χρήστες περιεχόμενο που θα αντιστοιχούσε με όσο το δυνατόν μεγαλύτερη ακρίβεια στα ενδιαφέροντά τους.
Στα χρόνια που ακολούθησαν το σκάνδαλο της Cambridge Analytica, τα παράπονα ότι το Facebook διέσπειρε ψεύδη και ρητορική μίσους αυξάνονταν διαρκώς. Στο τέλος του 2018, η εταιρεία αναγκάστηκε να παραδεχτεί ότι αυτού του είδους η τάση των αλγορίθμων της συνεισέφερε στο ξέσπασμα μιας εκστρατείας γενοκτονίας των μουσουλμάνων στη Μιανμάρ, η οποία μάλιστα είχε διάρκεια αρκετών ετών.
Εντός του 2020, το Facebook ανέλαβε δράση – με μεγάλη καθυστέρηση – εναντίον των αρνητών του Ολοκαυτώματος, των αντιεμβολιαστών και της θεωρίας συνωμοσίας QAnon. Όλα αυτά τα είδη τοξικού περιεχομένου, κυκλοφορούσαν ευρέως σε μεγάλο βαθμό εξαιτίας των αλγορίθμων του Κινιονέρο. Και αυτό γιατί στόχος τους δεν ήταν να διακρίνουν ποιες αναρτήσεις ήταν ψευδείς ή εμπρηστικές. Στόχος τους ήταν οι άνθρωποι να εμπλέκονται όσο το δυνατόν περισσότερο με την πλατφόρμα, κάνοντας αναδημοσιεύσεις, αφήνοντας σχόλια και κάνοντας like.
Ο Κινιονέρο πρόσφατα παραχώρησε μια σειρά από συνεντεύξεις, μετά από αίτημα του Facebook που προφανώς επιθυμούσε να βελτιώσει την εικόνα του, στο MIT Technology Review – όμως αναφέρθηκε ελάχιστα σε αυτά τα ζωτικά ζητήματα.
Άλλωστε, η ομάδα της οποίας ηγείται, δεν ασχολείται σχεδόν καθόλου με την παραπληροφόρηση και την καλλιέργεια του μίσους εντός της πλατφόρμας – ακόμη και την επαύριον της εισβολής στο Καπιτώλιο.
Δεν είναι παράξενο. Ο κεντρικός στόχος της εταιρείας ήταν και παραμένει ένας: Η διαρκής ανάπτυξη, μέσα από τη στρατολόγηση όλο και περισσότερων χρηστών, σε όλο και περισσότερα μέρη του κόσμου, που θα ασχολούνται όλο και περισσότερο με το περιεχόμενο που τους σερβίρει η πλατφόρμα. Η δουλειά του Κινιονέρο ήταν κομβική για αυτή την ανάπτυξη. Τώρα, αν και υποτίθεται ότι στρέφεται υπέρ της προστασίας των χρηστών, εστιάζει αποκλειστικά στον περιορισμό των προκαταλήψεων της Τεχνητής Νοημοσύνης. Ένας στόχος διόλου αμελητέος, όμως αφενός πολύ περιορισμένος και αφετέρου ελάχιστα ανιδιοτελής. Σύμφωνα με πηγές του MIT Technology Review, το μόνο που προσπαθεί να κάνει το Facebook είναι να… αποφύγει σχετικές μηνύσεις και ρυθμιστικά πλαίσια που θα μπορούσαν να περιορίσουν την πολυπόθητη ανάπτυξη.
«Όταν στόχος σου είναι να αυξήσεις την εμπλοκή των χρηστών, δεν σε ενδιαφέρει η αλήθεια. Δεν σε ενδιαφέρουν οι πιθανές βλάβες, ο διχασμός, οι συνωμοσίες. Στην πραγματικότητα, είναι σύμμαχοί σου», τονίζει η Χάνι Φάριντ, καθηγήτρια στο Πανεπιστήμιο Μπέρκλεϊ, που συνεργάζεται με το Facebook για να κατανοήσει την παραπληροφόρηση εντός της πλατφόρμας μέσω εικόνων και βίντεο.
Η σχέση του Κινιονέρο με το Facebook ξεκίνησε το 2012, όταν εκείνος εργαζόταν στα βρετανικά γραφεία της Microsoft ως ερευνητής. Η δουλειά του περιλάμβανε την εκπαίδευση των αλγορίθμων, μέσω της νοημοσύνης των μηχανών, προκειμένου περισσότεροι επισκέπτες να κάνουν κλικ στις διαφημίσεις που προβάλλονταν στο Bing. Ήταν ένας από τους ελάχιστους ειδικούς του τότε νεοαναδυόμενου κλάδου.
Ο Ζούκερμπεργκ ενθουσιάστηκε από τις δυνατότητες που άνοιγε η Τεχνητή Νοημοσύνη και ο Κινιονέρο από τις ευκαιρίες που δίνονταν από την απουσία γραφειοκρατίας του Facebook. Κι έτσι ξεκίνησε μια συνεργασία που συνεχίζεται μέχρι και σήμερα. Αρχικός τους στόχος ήταν η δημιουργία εργαλείων που θα μπορούσαν να προσφέρουν εξατομικευμένες διαφημίσεις στον κάθε χρήστη, μετατρέποντας το Facebook σε πρωτοπόρο της ψηφιακής διαφήμισης.
Σε αντίθεση με τους παραδοσιακούς αλγόριθμους, που προγραμματίζονται από ανθρώπους, οι αλγόριθμοι που στηρίζονται στη νοημοσύνη των μηχανών τροφοδοτούνται με μεγάλα σετ δεδομένων και «εκπαιδεύονται» να εντοπίζουν συσχετισμούς. Έτσι, ένας αλγόριθμος που στοχεύει στην προβολή των κατάλληλων διαφημίσεων, ίσως μάθει ότι οι γυναίκες κάνουν κλικ σε διαφημίσεις για κολάν συχνότερα από τους άνδρες – και θα τα προτείνει συχνότερα σε εκείνες. Πλέον, στις εταιρείες που στηρίζονται στην Τεχνητή Νοημοσύνη, όπως το Facebook, οι προγραμματιστές δημιουργούν αμέτρητα μοντέλα με μικρές διαφοροποιήσεις για να εντοπίσουν εκείνο που ανταποκρίνεται καλύτερα στις ανάγκες της εταιρείας.
Και το γεγονός ότι από τη φύση του συλλέγει αμέτρητα δεδομένα, του δίνει σαφές προβάδισμα σε αυτόν τον τομέα: Η ομάδα του Κινιονέρο είχε τη δυνατότητα να δημιουργήσει μοντέλα που δεν διέκριναν μόνο ευρείες κατηγορίες όπως «γυναίκες» και «άνδρες», αλλά και πολύ πιο συγκεκριμένες ομάδες καταναλωτών όπως «γυναίκες μεταξύ 25 και 34 ετών που έχουν κάνει like σε σελίδες στο Facebook που ασχολούνται με τη γιόγκα», προκειμένου να τους προτείνουν εξαιρετικά στοχευμένες διαφημίσεις – οι οποίες είναι αντιστοίχως συμφέρουσες τόσο για το Facebook όσο και για τους διαφημιζόμενους, που γνωρίζουν με σιγουριά ότι φτάνουν στο κοινό-στόχο τους.
Μέσα σε ένα χρόνο, η ομάδα του μπορούσε να αναπτύξει, να εκπαιδεύσει και να δοκιμάσει ένα τέτοιο μοντέλο σε μόλις μία εβδομάδα.
Η επιτυχία του Κονινιέρο δεν πέρασε απαρατήρητη από τον Ζούκερμπεργκ, καθώς εκτός όλων των άλλων το Facebook είχε πλέον ξεπεράσει το 1 δισεκατομμύριο χρήστες – αλλά ήθελε να συνεχίσει να αναπτύσσεται. Σύντομα, διοχέτευσε φαραωνικά ποσά στην Τεχνητή Νοημοσύνη, τη συνδεσιμότητα και την εικονική πραγματικότητα. Δημιουργήθηκαν δύο ομάδες για την Τεχνητή Νοημοσύνη, με τον Κινιονέρο να ηγείται της μίας.
Από το νέο του ρόλο, ο Κινιονέρο δημιούργησε μια πλατφόρμα ανάπτυξης μοντέλων, στην οποία είχαν πρόσβαση όλοι οι εργαζόμενοι του Facebook. Μέσα από αυτή, προγραμματιστές με ελάχιστη εμπειρία στην Τεχνητή Νοημοσύνη ήταν σε θέση να εκπαιδεύσουν και να χρησιμοποιήσουν μοντέλα νοημοσύνης των μηχανών μέσα σε λίγες ημέρες. Μέχρι τα μέσα του 2016, είχε χρησιμοποιηθεί για να εκπαιδεύσει περισσότερα από ένα εκατ. μοντέλα, ορισμένα εκ των οποίων σχετίζονταν με την αναγνώριση προσώπων, τις στοχευμένες διαφημίσεις και τον έλεγχο περιεχομένου.
Κι έτσι το όνειρο του Ζούκερμπεργκ, όλος ο πλανήτης να χρησιμοποιεί την πλατφόρμα του, ήρθε ξαφνικά πιο κοντά στην πραγματικότητα.
Με νέα μοντέλα νοημοσύνης των μηχανών να δημιουργούνται καθημερινά, η εταιρεία δημιούργησε ένα νέο σύστημα για να καταγράψει τις επιπτώσεις τους και να μεγιστοποιήσει την εμπλοκή των χρηστών. Η διαδικασία δεν έχει αλλάξει μέχρι και σήμερα. Οι ομάδες εκπαιδεύουν τα μοντέλα στην πλατφόρμα, είτε αυτά έχουν ως στόχο να αλλάξουν τη σειρά των αναρτήσεων για να αυξήσουν τις αντιδράσεις, είτε να εντοπίζουν περιεχόμενο που παραβιάζει τους όρους της κοινότητας. Στη συνέχεια, τα δοκιμάζουν σε μικρά υποσύνολα χρηστών, για να ελέγξουν πώς επηρεάζεται η εμπλοκή τους, όπως εξηγεί στο MIT Technology Review ο Κρίσνα Γκέιντ, που έχει εργαστεί ως υπεύθυνος προγραμματισμού του newsfeed από το 2016 έως τι 2018.
Αν ένα μοντέλο μειώνει κατά πολύ την εμπλοκή των χρηστών, πετιέται στον κάλαθο των αχρήστων. Διαφορετικά, εισάγεται και συνεχίζει να επιτηρείται. Αν τα likes μειωθούν κατά πολύ, οι προγραμματιστές επιχειρούν να διακρίνουν τι έφταιξε – και να το αλλάξουν.
Υπάρχει, όμως, ένα όχι και τόσο μικρό πρόβλημα: Τα μοντέλα που μεγιστοποιούν την εμπλοκή των χρηστών, έχουν την τάση να οξύνουν και την ένταση, την παραπληροφόρηση και τον εξτρεμισμό. Με απλά λόγια, οι άνθρωποι τείνουν να αντιδρούν κυρίως σε ακραίες αναρτήσεις. Στην περίπτωση της Μιανμάρ, για παράδειγμα, η ανεξέλεγκτη αναπαραγωγή fake news και ρητορικής μίσους κατά των μουσουλμάνων Ροχίνγκια, κλιμάκωσε τις θρησκευτικές συγκρούσεις εντός της χώρας και οδήγησε στη γενοκτονία. Το Facebook παραδέχτηκε το 2018, μετά από πολλά χρόνια κατά τα οποία υποβάθμιζε τον ρόλο του, ότι δεν είχε κάνει αρκετά για να «αποτρέψει τη χρήση της πλατφόρμας για την δημιουργία διχασμού και την προτροπή σε βία στον πραγματικό κόσμο».
Η πλατφόρμα είναι σε θέση να γνωρίζει αυτούς τους κινδύνους τουλάχιστον από το 2016. Σε εσωτερική παρουσίαση εκείνης της χρονιάς, η οποία βρίσκεται στη διάθεση της Wall Street Journal, μια ερευνήτρια της εταιρείας, η Μόνικα Λι, διαπίστωσε ότι το Facebook δεν φιλοξενούσε απλώς μεγάλο αριθμό εξτρεμιστικών ομάδων, αλλά και τις προωθούσε στους χρήστες του: «Το 64% όλων των νέων μελών σε εξτρεμιστικές ομάδες οφείλονται στα δικά μας εργαλεία προτάσεων», ανέφερε η παρουσίαση.
Το 2017, ο Κρις Κοξ, ο επικεφαλής προϊόντος, ίδρυσε μια νέα ομάδα εργασίας που θα είχε ως στόχο την κατανόηση του ρόλου της μεγιστοποίησης της εμπλοκής των χρηστών στο Facebook στην πολιτική πόλωση. Διαπίστωσε ότι πράγματι υπήρχε συσχετισμός και ότι, προκειμένου να μειωθεί η πόλωση, θα έπρεπε να μειωθεί και η εμπλοκή. Στα μέσα του 2018, στο έγγραφο που βρίσκεται στη διάθεση της WSJ, η ομάδα του πρότεινε μια σειρά από λύσεις, όπως για παράδειγμα το «πείραγμα» των αλγορίθμων που ορίζουν τις προτάσεις, προκειμένου να παρουσιάζεται στους χρήστες μια πιο διευρυμένη γκάμα επιλογών. Όμως αναγνώρισε ότι πολλές από αυτές πήγαιναν κόντρα στην ανάπτυξη. Οι περισσότερες δεν εφαρμόστηκαν ποτέ, και η ομάδα έχει έκτοτε διαλυθεί.
Στο μεταξύ, άλλοι εργαζόμενοι επιβεβαίωσαν αυτά τα ευρήματα. Ένας πρώην ερευνητής Τεχνητής Νοημοσύνης στο Facebook μίλησε ανώνυμα στο MIT Technology Review και δήλωσε ότι ο ίδιος και η ομάδα του πραγματοποίησαν «τη μια έρευνα πίσω από την άλλη» και πάντα επιβεβαίωναν την ίδια βασική ιδέα: Τα μοντέλα που μεγιστοποιούν την εμπλοκή των χρηστών, μεγιστοποιούν και την πόλωση.
Μπορούσαν να εντοπίσουν με ευκολία με πόση ένταση συμφωνούσαν ή διαφωνούσαν οι χρήστες σε διάφορα ζητήματα, με τι περιεχόμενο προτιμούσαν να ασχολούνται και πώς άλλαζαν οι στάσεις τους ως αποτέλεσμα της έκθεσής τους σε αυτό το περιεχόμενο. Ανεξάρτητα από το ζήτημα, τα μοντέλα μάθαιναν να τροφοδοτούν τους χρήστες με όλο και πιο ακραίες απόψεις: «Με την πάροδο του χρόνου, η αύξηση της πόλωσης ήταν μετρήσιμη», υποστηρίζει.
Η ομάδα του ερευνητή ανακάλυψε επίσης ότι οι χρήστες που είχαν την τάση να αναρτούν ή να εμπλέκονται με μελαγχολικό περιεχόμενο – πιθανό δείγμα ότι υποφέρουν από κατάθλιψη – μπορούσαν εύκολα να βυθιστούν στην κατανάλωση όλο και πιο δυσάρεστου περιεχομένου, με κίνδυνο την περαιτέρω επιβάρυνση της ψυχικής υγείας τους. Η ομάδα πρότεινε την τροποποίηση των μοντέλων αξιολόγησης περιεχομένου για τους συγκεκριμένους χρήστες, ώστε να μην λειτουργούν αποκλειστικά με το κριτήριο της μεγιστοποίησης της εμπλοκής και να τους δείχνουν λιγότερο δυσάρεστο περιεχόμενο. Εκπρόσωπος του Facebook δήλωσε στο MIT Technology Review ότι δεν μπορεί να εντοπίσει έγγραφες αποδείξεις για τη συγκεκριμένη πρόταση.
Έχοντας συνειδητοποιήσει ότι η ηγεσία της εταιρείας δεν ενδιαφερόταν για οποιοδήποτε μέτρο που θα μείωνε την εμπλοκή των χρηστών, όσο πολύτιμο και αν ήταν για την κοινωνία, οι εργαζόμενοι σύντομα σταμάτησαν να ασχολούνται με τέτοιου είδους προτάσεις και να περιορίζονται σε προγράμματα που είχαν ως στόχο κυρίως την προστασία του ονόματος της εταιρείας και όχι των χρηστών.
Ο συγκεκριμένος πρώην υπάλληλος, αναφέρει ότι δεν επιτρέπει στην κόρη του να μπαίνει στο Facebook.
Το 2018, πάντως, ο Κινιονέρο ανέλαβε, υποτίθεται, να μεταμορφώσει τους αλγορίθμους, με στόχο την αντιμετώπιση τέτοιου είδους ζητημάτων, και φαίνεται ότι το πήρε πολύ σοβαρά, καθώς ξεκίνησε από την επιμόρφωσή του σε ζητήματα ηθικής, δικαιοσύνης των αλγόριθμων, ηθικού προγραμματισμού και ιστορίας της τεχνολογίας, ενώ συνομίλησε, όπως λέει, με ειδικούς σε ζητήματα δικαιωμάτων του πολίτη και ηθικούς φιλοσόφους.
Άλλωστε, ένας από τους λόγους για τον αρχικό του ενθουσιασμό απέναντι στο Facebook ήταν η αίσθησή του ότι η πλατφόρμα θα μπορούσε να προωθήσει την ελευθερία του λόγου – πράγμα που μάλλον αποτελεί υπερβολική απαίτηση απέναντι σε μια ιδιωτική εταιρεία. Η ελπίδα αυτή κατέρρευσε με την Cambridge Analytica, όμως ο Κινιονέρο δεν αποχώρησε από την εταιρεία: «Νομίζω ότι αυτό που συμβαίνει στους περισσότερους εργαζόμενους στo Facebook – και σίγουρα ισχύει για εμένα – είναι ότι δεν υπάρχει όριο ανάμεσα στο Facebook και σε μένα», τονίζει στο MIT Technology Review. «Είναι εξαιρετικά προσωπικό».
Η ομάδα του, πάντως, αρχικά είχε προτείνει πολλές ριζοσπαστικές ιδέες: Για παράδειγμα, μια πρόταση αφορούσε την καταπολέμηση της πόλωσης. Θα λειτουργούσε μέσω ανάλυσης συναισθημάτων, έναν τύπο νοημοσύνης των μηχανών που κατανοεί την άποψη εντός ενός κειμένου, προκειμένου να αναγνωρίσει σχόλια που εκφράζουν ακραίες απόψεις. Αυτά τα σχόλια δεν θα διαγράφονταν, αλλά θα κρύβονταν αυτομάτως, με τους χρήστες να έχουν την ευκαιρία, αν το επιθυμούν, να τα ανοίξουν.
Όμως πρώην μέλη της ομάδας περιγράφουν στο MIT Technology Review πόσο δύσκολο ήταν να βρουν επαρκή χρηματοδότηση για πρότζεκτ που δεν θα αύξαναν την εμπλοκή των χρηστών. Και από τη φύση της, η ομάδα δεν ασχολούνταν καθόλου με αυτό το κομμάτι – αντιθέτως, συχνά στρεφόταν εναντίον του. Πολλές ιδέες της έμειναν «στα χαρτιά».
Το 2018, αυτό άλλαξε ξαφνικά. Ο τότε πρόεδρος των ΗΠΑ, Ντόναλντ Τραμπ, και άλλοι Ρεπουμπλικάνοι, κατηγόρησαν το Facebook, το Twitter και το Google ότι είναι προκατειλημμένα κατά των συντηρητικών απόψεων. Ισχυρίστηκαν ότι ιδιαιτέρως οι διαχειριστές του Facebook, εφαρμόζοντας τους όρους της κοινότητας, φίμωναν περισσότερες συντηρητικές παρά προοδευτικές απόψεις. Αυτή η κατηγορία αργότερα αποδείχθηκε έωλη, όμως το hashtag #StopTheBias, που ξεκίνησε – όπως και τόσα και τόσα άλλα – από ένα tweet του Τραμπ, εξαπλώθηκε σαν πυρκαγιά στα κοινωνικά δίκτυα.
Και αυτό θα μπορούσε να οδηγήσει στην αποξένωση τους συντηρητικούς χρήστες – αλλά και να καταστήσει την εταιρεία πιο ευάλωτη στην πιθανότητα ρύθμισης, σε περίπτωση επανεκλογής των Ρεπουμπλικάνων. Επομένως, απειλούσε την περιβόητη ανάπτυξη.
Στις 20 Σεπτεμβρίου του 2018, τρεις εβδομάδες μετά το tweet του Τραμπ, ο Ζούκερμπεργκ έκανε σύσκεψη με τον Κινιονέρο για πρώτη φορά μετά τη σύσταση της ομάδας του, ζητώντας να μάθει όλα όσα γνώριζε για τις προκαταλήψεις της Τεχνητής Νοημοσύνης και τους τρόπους αντιμετώπισής τους. Μέχρι το τέλος της συνάντησης, ήταν ξεκάθαρο ότι το ενδιαφέρον του Κινιονέρο θα έπρεπε να στραφεί σε αυτή την κατεύθυνση – και μάλιστα άμεσα και επιθετικά.
Μέχρι εκείνη την εποχή, το Facebook ήδη διέθετε χιλιάδες μοντέλα που «έτρεχαν» την ίδια στιγμή. Και δεν είχε εξετάσει σχεδόν κανένα, για να διαπιστώσει αν ήταν προκατειλημμένο. Λίγους μήνες αργότερα, αυτή η παράλειψη θα οδηγούσε σε δικαστική διαμάχη μ το Αμερικανικό Υπουργείο Στέγασης και Αστικής Ανάπτυξης, που κατηγόρησε την εταιρεία για αλγόριθμους που ταυτοποιούσαν «προστατευμένα» χαρακτηριστικά των χρηστών, όπως η φυλή, μέσα από τα δεδομένα τους και τους προέβαλαν διαφημίσεις στέγασης βάσει αυτών των χαρακτηριστικών – πράγμα που αποτελεί παράνομη μορφή διάκρισης.
Η ίδια η εταιρεία, πάντως, υποστηρίζει ότι ο μόνος λόγος για την εργασία της στις διακρίσεις ήταν «επειδή αυτό ήταν το σωστό».
Όμως ακόμη και αν αυτό ισχύει, δεν αλλάζει τα μοντέλα του Facebook για την προώθηση περιεχομένου, που εξακολουθούν να δίνουν ώθηση σε αναρτήσεις, ειδήσεις και ομάδες με στόχο τη μεγιστοποίηση της εμπλοκής των χρηστών. Μέσα από αυτά, το εμπρηστικό περιεχόμενο επιβραβεύεται και ο ήδη τοξικός δημόσιος λόγος επιδεινώνεται.
Και αυτό είναι κάτι που έχει παραδεχτεί και ο ίδιος ο Ζούκερμπεργκ. Δυο μήνες μετά τη συνάντησή του με τον Κινιονέρο, σε δημόσια ανακοίνωση για τα σχέδια της εταιρείας σε ό,τι αφορά τον έλεγχο του περιεχομένου, παρουσίασε τις επιβλαβείς συνέπειες της στρατηγικής της εταιρείας με ένα απλοποιημένο διάγραμμα. Εκεί, έδειχνε ότι όσο περισσότερες πιθανότητες είχε μια ανάρτηση να παραβιάζει τους όρους της κοινότητας, τόσο περισσότερο εμπλέκονται με αυτό οι χρήστες, επειδή οι αλγόριθμοι που μεγιστοποιούν την εμπλοκή επιβραβεύουν το εμπρηστικό περιεχόμενο.
Όμως στη συνέχεια έδειξε ένα άλλο διάγραμμα με την αντίστροφη σχέση. Αντί να επιβραβεύει αυτό το περιεχόμενο, έγραψε ο Ζούκερμπεργκ, το Facebook θα επέλεγε να αρχίσει να το «τιμωρεί», διαδίδοντάς το σε λιγότερα άτομα και προσφέροντάς του μικρότερη εμπλοκή. Πώς θα συνέβαινε αυτό; Με περισσότερη Τεχνητή Νοημοσύνη, που θα εντόπιζε το «οριακό περιεχόμενο» προκειμένου να το «θάψει» χαμηλότερα στο news feed και να μειώσει τις πιθανότητες να γίνει viral.
Ωστόσο, αυτό δεν είναι και τόσο εύκολο. Η παραπληροφόρηση και η ρητορική μίσους εξελίσσονται διαρκώς, νέα άτομα και ομάδες γίνονται στόχοι. Για να προλάβουν τις εμπρηστικές αναρτήσεις πριν γίνουν viral, οι αλγόριθμοι θα πρέπει να αναγνωρίζουν νέο ανεπιθύμητο περιεχόμενο με μεγάλη ακρίβεια. Όμως τα μοντέλα νοημοσύνης των μηχανών, δεν λειτουργούν κατ’ αυτό τον τρόπο. Ένας αλγόριθμος που έχει εκπαιδευτεί να αναγνωρίζει τους αρνητές του Ολοκαυτώματος, για παράδειγμα, δεν θα καταφέρει να εντοπίσει απ’ ευθείας και τους αρνητές της γενοκτονίας των Ροχίνγκια. Θα πρέπει να εκπαιδευτεί σε χιλιάδες, συχνά ακόμη και σε εκατομμύρια παραδείγματα ενός νέου τύπου περιεχομένου πριν μάθει να το φιλτράρει.
Κι ακόμη και αν τα καταφέρει, οι χρήστες πάντα μπορούν να χρησιμοποιήσουν ευφημισμούς ή απλώς να αλλάξουν ένα γράμμα, και να καταστήσουν το μήνυμά τους ακατανόητο για τον αλγόριθμο – χωρίς να επηρεάζεται η ευκρίνειά του για τους ανθρώπους.
Παράλληλα, το Facebook εξακολουθεί να μην ασχολείται εις βάθος με αυτά τα ζητήματα. Μόλις λίγες εβδομάδες νωρίτερα, τις ημέρες που προηγήθηκαν της εισβολής στο Καπιτώλιο, το εμπρηστικό περιεχόμενο που κατάφερνε να ξεφύγει από τον έλεγχο της πλατφόρμας, προωθούνταν με τη μεγαλύτερη ένταση στα news feed των άλλων χρηστών. Τα αποτελέσματα δεν ήταν ευχάριστα: Μετρήθηκαν σε νεκρούς και σε πλήγματα προς την αμερικανική δημοκρατία.