Τα μέσα κοινωνικής δικτύωσης όπως τα Trolling Influencers, το Inflaming Controversy

κοινωνικά μέσα στο facebook

Τάσεις ειδήσεων: Μπορείτε να πείτε εάν ασχολείστε με την τεχνητή νοημοσύνη στο διαδίκτυο;

ΠΡΟΣ ΤΗΝ ερευνητική εργασία που δημοσιεύθηκε τον Νοέμβριο του τρέχοντος έτους από το Τμήμα Επιστήμης Υπολογιστών του Πανεπιστημίου της Νότιας Καλιφόρνιας διαπίστωσε ότι η τεχνητή νοημοσύνη, τα λεγόμενα «bots», παρουσίαζε αντικοινωνική συμπεριφορά στο διαδίκτυο.



μαύροι άνδρες γκρίζα μαλλιά

Αυτά τα ρομπότ κοινωνικών μέσων στοχεύουν συγκεκριμένους επιδιωκόμενους στα μέσα κοινωνικής δικτύωσης με αρνητικές δημοσιεύσεις που είχαν σκοπό να επιδεινώσουν τα βίαια σχόλια και να επηρεάσουν την πολιτική τους προκατάληψη.



Αυτή η μελέτη, μία από τις πρώτες στο είδος της, δημοσιεύθηκε στο Πρακτικά της Εθνικής Ακαδημίας Επιστημών των Ηνωμένων Πολιτειών της Αμερικής και συν-συγγραφέας από τον βοηθό καθηγητή έρευνας και αναπληρωτή διευθυντή Πληροφορικής, Emilio Ferrara. Η Ferrara σημείωσε ότι «Κάθε χρήστης εκτίθεται σε αυτό είτε άμεσα είτε έμμεσα, επειδή το περιεχόμενο που δημιουργείται από bot είναι σήμερα πολύ διαδεδομένο».

Η μελέτη για το κοινωνικό hacking εξέτασε περίπου 4 εκατομμύρια δημοσιεύσεις στο Twitter που επικεντρώθηκαν στην αμφιλεγόμενη ψηφοφορία για δημοψήφισμα για την καταλανική ανεξαρτησία. Οι ερευνητές εξέτασαν τον τύπο της δυναμικής συμπεριφοράς που χρησιμοποιούν τα bot, ποιοι χρήστες στοχεύτηκαν και ο τύπος περιεχομένου που κοινοποιήθηκε από την τεχνητή νοημοσύνη στο διαδίκτυο.



Τα ρομπότ επιλέγουν στρατηγικά και επιδιώκουν συγκεκριμένους παράγοντες επιρροής στα μέσα κοινωνικής δικτύωσης. Τα ρομπότ AI δημοσίευσαν ως επί το πλείστον αρνητικά σχόλια που θα ανταγωνίζονταν αυτά τα άτομα στη δημιουργία πιο φλεγμονώδους περιεχομένου.

Αυτοί οι ανθρώπινοι χρήστες δεν γνώριζαν επίσης ότι οι λογαριασμοί με τους οποίους ασχολήθηκαν ήταν στην πραγματικότητα τεχνητοί στο σχεδιασμό.

Facebook
Παρακολουθείτε ένα bot στα κοινωνικά μέσα;

Στο παρελθόν πίστευαν ότι τα bots δεν είχαν καμία προκατάληψη για έναν τύπο περιεχομένου ή συγκεκριμένους χρήστες, αλλά αυτό το άρθρο με τίτλο «Bots αυξάνει την έκθεση σε αρνητικό και φλεγμονώδες περιεχόμενο σε διαδικτυακά κοινωνικά συστήματα» φαίνεται να αποδεικνύει διαφορετικά.



Ίσως υπάρχει πρόβλημα στον αρχικό τους προγραμματισμό ή μια συγκεντρωμένη προσπάθεια από τους προγραμματιστές τους να επηρεάσουν την κοινωνική συζήτηση. Αυτό που είναι σίγουρο είναι ότι η τεχνητή νοημοσύνη έχει τη δύναμη να επηρεάζει ανώνυμα τη συμπεριφορά των κοινωνικών μέσων.

Μπορεί να γίνει επίκληση της τεχνητής νοημοσύνης για τη χρήση ηθικών προτύπων για την ανάρτηση και προώθηση επιβλαβούς περιεχομένου στο διαδίκτυο; Kentaro Toyama, W.K. Ο καθηγητής Κοινοτικής Πληροφορίας στη Σχολή Πληροφοριών του Πανεπιστημίου του Μίσιγκαν, δεν το πιστεύει. Είναι ο συγγραφέας του Geek Heresy: Διάσωση της κοινωνικής αλλαγής από τη λατρεία της τεχνολογίας . Ο BeCocabaretGourmet του μίλησε για να αποκτήσει την εικόνα του και μοιράστηκε τα ακόλουθα μαζί μας: «Τα περισσότερα συστήματα AI σήμερα, τόσο έξυπνα όσο και με κάποιους τρόπους, εξακολουθούν να είναι εντελώς αδιάφορα για τις ανθρώπινες αξίες και ηθική».

Ο Toyama συνέχισε λέγοντας: «Υπάρχουν ερευνητικές ομάδες, όπως στο Μπέρκλεϊ Center for Human-Compatible AI, οι οποίες ερευνούν τρόπους για να κάνουν τα συστήματα AI πιο ηθικά, αλλά αυτές οι ιδέες είναι στην αρχή. Αλλά ακόμη και αν υπήρχαν τέτοιες τεχνολογίες, το πρόβλημα με την ηθική τεχνητή νοημοσύνη είναι ότι εκτός αν μεμονωμένα άτομα και εταιρείες που χρησιμοποιούν AI επιλέγουν να χρησιμοποιούν ηθικά συστήματα AI, μπορεί πάντα να υπάρχουν μη ηθικά συστήματα AI που προκαλούν βλάβη. '



Σχετιζομαι με: Το Facebook προκαλεί παρορμητική λήψη αποφάσεων;

πώς να κάνεις τη φίλη να σε κυνηγάει

Οι τελευταίες προεδρικές εκλογές των ΗΠΑ έδωσαν νέα ώθηση στη συζήτηση για το κοινωνικό χάκερ και πιστεύεται ευρέως ότι οι λεγόμενες «ψεύτικες ειδήσεις» έπαιξαν αναπόσπαστο ρόλο στην ταλάντευση και χειραγώγηση του εκλογικού σώματος των Ηνωμένων Πολιτειών.

Υπάρχουν ανθρώπινοι συντονιστές και αυτοματοποιημένα συστήματα παρακολούθησης σε ιστότοπους κοινωνικών μέσων όπως το Twitter και το Facebook, αλλά η αποτελεσματικότητά τους στην εξουδετέρωση της κοινωνικής εισβολής είναι επιτυχημένη.

Μερικά από αυτά τα συστήματα συντονισμού χρησιμοποιούν οι ίδιοι τεχνητή νοημοσύνη. Μέχρι να τεθούν σε εφαρμογή καλύτερες διασφαλίσεις για την παρακολούθηση ή τον έλεγχο του είδους της γλώσσας ή του περιεχομένου που διανέμεται από τα bots των κοινωνικών μέσων μαζικής ενημέρωσης, είναι πιθανό η τεχνητή νοημοσύνη να έχει λόγο σε κάθε μείζονα κοινωνικοπολιτική συζήτηση.

Έχετε παρακολουθήσει ποτέ ένα bot στα κοινωνικά μέσα; Θα το ξέρετε αν συνέβη;