Τώρα, ο αυτοαποκαλούμενος «chief twit» αποκάλυψε την επόμενη μεγάλη αλλαγή του στην πλατφόρμα.
Ο Μασκ επιβεβαίωσε αναφορές ότι ο Χ πρόκειται να αρχίσει να κρύβει όλα τα likes σε αναρτήσεις στην πλατφόρμα.
Important change: your likes are now private https://t.co/acUL8HqjUJ
— Elon Musk (@elonmusk) June 12, 2024
Αυτό θα «επιτρέψει στους ανθρώπους να κάνουν like στις αναρτήσεις χωρίς να δέχονται επίθεση για κάτι τέτοιο», σύμφωνα με τον Musk.
Ωστόσο, φαίνεται ότι δεν είναι όλοι οι χρήστες εντυπωσιασμένοι με την αλλαγή, με μια εξήγηση: «Γιατί ό,τι γίνεται σε αυτήν την πλατφόρμα το κάνει μόνο χειρότερο; Δεν έχω δει ακόμη να έχει ληφθεί μια καλή απόφαση ».
Πώς θα λειτουργήσει;
Τα likes θα γίνουν ιδιωτικά για όλους για «καλύτερη προστασία του απορρήτου σας», σύμφωνα με την ομάδα Engineering του X.
Θα εξακολουθείτε να μπορείτε να βλέπετε αναρτήσεις που σας αρέσουν (αλλά οι άλλοι δεν θα μπορούν).
Ο αριθμός των “μου αρέσει” και άλλες μετρήσεις για τις δικές σας αναρτήσεις θα εξακολουθούν να εμφανίζονται στις ειδοποιήσεις.
Δεν θα βλέπετε πλέον σε ποιον άρεσε η ανάρτηση κάποιου άλλου.
Ο συντάκτης μιας ανάρτησης μπορεί να δει σε ποιον άρεσε οι αναρτήσεις της.
Οι αναφορές αυτή την εβδομάδα υποδεικνύουν ότι ο γίγαντας των μέσων κοινωνικής δικτύωσης θα ξεκινήσει άμεσα να κυκλοφορεί την αλλαγή, με τον δισεκατομμυριούχο να δημοσιεύει έναν σύνδεσμο προς μια τέτοια αναφορά και να επιβεβαιώνει ότι η αλλαγή ήταν ερχόμενη.
Γράφοντας παράλληλα με το άρθρο, ο Μασκ είπε ότι το να γίνονται ιδιωτικά likes είναι «σημαντικό για να επιτρέπεται στους ανθρώπους να κάνουν like στις αναρτήσεις χωρίς να δέχονται επίθεση για αυτό».
Τον περασμένο μήνα, ο Χ διευθυντής μηχανικής Haofei Wang είπε ότι η αλλαγή έρχεται για να βοηθήσει τους χρήστες του ιστότοπου να «προστατέψουν τη δημόσια εικόνα τους».
Πρόσθεσε ότι ορισμένοι χρήστες ήταν απρόθυμοι να τους αρέσει συγκεκριμένο περιεχόμενο στον ιστότοπο λόγω φόβου αντεκδίκησης.
«Ναι, κάνουμε likes ιδιωτικά», έγραψε στο X τον Μάιο.
«Τα δημόσια likes δίνουν κίνητρο για λάθος συμπεριφορά.
«Για παράδειγμα, πολλοί άνθρωποι αισθάνονται αποθαρρυμένοι από το να τους αρέσει περιεχόμενο που μπορεί να είναι αμφιλεγόμενο, φοβούμενοι αντίποινα από τα τρολ ή για να προστατεύσουν τη δημόσια εικόνα τους.
«Σύντομα θα μπορείτε να κάνετε like χωρίς να ανησυχείτε ποιος μπορεί να το δει.
‘Επίσης, μια υπενθύμιση ότι όσο περισσότερες αναρτήσεις σας αρέσουν, τόσο καλύτερος θα γίνεται ο αλγόριθμός σας για εσάς.’
Από τότε που ο κ. Μασκ ανέλαβε το Twitter –όπως ήταν τότε γνωστό– στα τέλη του 2022, χαλάρωσε τον έλεγχο περιεχομένου στον ιστότοπο και επέτρεψε περισσότερο αμφιλεγόμενο υλικό στην πλατφόρμα, ως μέρος της υποστήριξής του στην «απόλυτη ελευθερία του λόγου».
Αρκετοί χρήστες έχουν εκφράσει τις ανησυχίες τους με την ενημέρωση.
«Αυτή είναι μια από τις χειρότερες αποφάσεις που έχει πάρει ποτέ ο Χ. Αυτό δεν λειτούργησε ποτέ όταν το δοκίμασαν οι άλλες 10 εταιρείες», έγραψε ένας χρήστης στο Twitter.
Ένας άλλος πρόσθεσε: «με άλλα λόγια… αφού δεν μπορούμε να απαλλαγούμε από την κραυγαλέα χειραγώγηση της πλατφόρμας, θα το κρύψουμε».
Και ένας απηύθυνε: «είστε πραγματικά δεσμευμένοι να σκοτώσετε αυτήν την εφαρμογή».
Ο Έλον Μασκ είναι ένα από τα πιο σημαντικά ονόματα και πρόσωπα στις αναπτυσσόμενες τεχνολογίες.
Ο δισεκατομμυριούχος επιχειρηματίας είναι επικεφαλής της SpaceX, της Tesla και της εταιρείας Boring.
Αλλά ενώ βρίσκεται στην πρώτη γραμμή της δημιουργίας τεχνολογιών AI, έχει επίσης πλήρη επίγνωση των κινδύνων της.
Εδώ είναι ένα ολοκληρωμένο χρονοδιάγραμμα όλων των προαισθήσεων, των σκέψεων και των προειδοποιήσεων του Μασκ για την τεχνητή νοημοσύνη, μέχρι στιγμής.
Αύγουστος 2014 – «Πρέπει να είμαστε εξαιρετικά προσεκτικοί με την τεχνητή νοημοσύνη. Δυνητικά πιο επικίνδυνα από τα πυρηνικά ».
Οκτώβριος 2014 – «Πιστεύω ότι πρέπει να είμαστε πολύ προσεκτικοί σχετικά με την τεχνητή νοημοσύνη. Αν ήθελα να μαντέψω ποια είναι η μεγαλύτερη υπαρξιακή μας απειλή, μάλλον αυτό είναι. Πρέπει λοιπόν να είμαστε πολύ προσεκτικοί με την τεχνητή νοημοσύνη ».
Οκτώβριος 2014 – «Με την τεχνητή νοημοσύνη καλούμε τον δαίμονα».
Ιούνιος 2016 – «Η καλοήθης κατάσταση με την εξαιρετικά ευφυή τεχνητή νοημοσύνη είναι ότι θα ήμασταν τόσο χαμηλότερα σε νοημοσύνη που θα ήμασταν σαν ένα κατοικίδιο ή μια γάτα του σπιτιού».
Ιούλιος 2017 – «Νομίζω ότι η τεχνητή νοημοσύνη είναι κάτι που είναι επικίνδυνο σε επίπεδο πολιτισμού, όχι μόνο σε επίπεδο ατομικού κινδύνου, και γι’ αυτό απαιτεί πραγματικά πολλή έρευνα για την ασφάλεια».
Ιούλιος 2017 – «Έχω έκθεση στην πιο προηγμένη τεχνητή νοημοσύνη και νομίζω ότι οι άνθρωποι θα πρέπει να ανησυχούν πραγματικά για αυτό».
Ιούλιος 2017 – «Συνεχίζω να κρούω τον κώδωνα του κινδύνου, αλλά μέχρι οι άνθρωποι να δουν ρομπότ να πηγαίνουν στο δρόμο να σκοτώνουν ανθρώπους, δεν ξέρουν πώς να αντιδράσουν γιατί φαίνεται τόσο αιθέριο».
Αύγουστος 2017 – «Αν δεν ανησυχείτε για την ασφάλεια της τεχνητής νοημοσύνης, θα πρέπει να ανησυχείτε. Πολύ μεγαλύτερος κίνδυνος από τη Βόρεια Κορέα ».
Νοέμβριος 2017 – «Ίσως υπάρχουν πέντε έως 10 τοις εκατό πιθανότητες επιτυχίας [να γίνει η τεχνητή νοημοσύνη ασφαλής]».
Μάρτιος 2018 – «Το AI είναι πολύ πιο επικίνδυνο από τα πυρηνικά. Γιατί λοιπόν δεν έχουμε ρυθμιστική εποπτεία;».
Απρίλιος 2018 – «[Το AI είναι] ένα πολύ σημαντικό θέμα. Θα επηρεάσει τη ζωή μας με τρόπους που δεν μπορούμε καν να φανταστούμε αυτή τη στιγμή ».
Απρίλιος 2018 – «[Θα μπορούσαμε να δημιουργήσουμε] έναν αθάνατο δικτάτορα από τον οποίο δεν θα γλιτώναμε ποτέ».
Νοέμβριος 2018 – «Ίσως η τεχνητή νοημοσύνη με κάνει να την ακολουθήσω, να γελάσω σαν δαίμονας και να πω ποιος είναι το κατοικίδιο τώρα».
Σεπτέμβριος 2019 – «Αν η προηγμένη τεχνητή νοημοσύνη (πέραν των βασικών ρομπότ) δεν έχει εφαρμοστεί για τη χειραγώγηση των μέσων κοινωνικής δικτύωσης, δεν θα αργήσει να γίνει».
Φεβρουάριος 2020 – «Στην Tesla, η χρήση τεχνητής νοημοσύνης για την επίλυση της αυτοοδήγησης δεν είναι απλώς το κερασάκι στην τούρτα, αλλά η τούρτα».
Ιούλιος 2020 – «Οδεύουμε προς μια κατάσταση όπου η τεχνητή νοημοσύνη είναι πολύ πιο έξυπνη από τους ανθρώπους και νομίζω ότι αυτό το χρονικό πλαίσιο είναι λιγότερο από πέντε χρόνια από τώρα. Αυτό όμως δεν σημαίνει ότι όλα πάνε στο διάολο σε πέντε χρόνια. Σημαίνει απλώς ότι τα πράγματα γίνονται ασταθή ή περίεργα ».
Φεβρουάριος 2022 : «Πρέπει να λύσουμε ένα τεράστιο μέρος της τεχνητής νοημοσύνης για να κάνουμε τα αυτοκίνητα να οδηγούν μόνα τους».
Δεκέμβριος 2022 : «Ο κίνδυνος της εκπαίδευσης της τεχνητής νοημοσύνης για αφύπνιση –με άλλα λόγια, ψέμα– είναι θανατηφόρος».
photo: EPA-REUTERS POOL