Εριδες εντός κι εκτός OpenAI: Η «απερίσκεπτη» κούρσα της κυριαρχίας

 
AI

Ενημερώθηκε: 04/06/24 - 22:43

Οι «παροικούντες την Ιερουσαλήμ» της Σίλικον Βάλεϊ και ειδικότερα οι γνωρίζοντες πρόσωπα και πράγματα μέσα από τα άδυτα της OpenAI όλο και περισσότερο αυξάνουν την ένταση της ανησυχίας τους όσον αφορά στις εξελίξεις γύρω από την τεχνητή νοημοσύνη.

Το κλειδί δεν είναι άλλο από την εικαζόμενη πρόθεση της ομάδας του Σαμ Αλτμαν να φτάσει πιο γρήγορα από ό,τι αναμενόταν στη δημιουργία της γενικής τεχνητής νοημοσύνης (AGI), χωρίς τις απαραίτητες δικλείδες ασφαλείας. Αυτός άλλωστε φέρεται να είναι κι ο λόγος της προ μηνός μεγάλης κρίσης εντός της OpenAI, όταν δηλαδή ο Αλτμαν «εκπαραθυρώθηκε» σε μία νύχτα, για να επιστρέψει θριαμβευτής μερικά 24ωρα μετά. Κι εν τέλει, να αποχωρήσουν (σταδιακά) οι υπόλοιποι.

Οι ΝΥΤ φιλοξενούν εκτενές ρεπορτάζ με φωνές και ψιθύρους από ομάδα συνεργατών της OpenAI, που αποκαλύπτουν μία κουλτούρα απερισκεψίας και μυστικότητας, η οποία επικρατεί στην εταιρεία του Σαν Φρανσίσκο, ενώ διεξάγεται ένας αγώνας δρόμου για την κατασκευή των ισχυρότερων συστημάτων τεχνητής νοημοσύνης που έχουν δημιουργηθεί ποτέ.

Η ομάδα, σημειώνει η εμβληματική εφημερίδα της Νέας Υόρκης, περιλαμβάνει εννέα νυν και πρώην υπαλλήλους της OpenAI. Αυτοί έχουν συσπειρωθεί τις τελευταίες ημέρες γύρω από κοινές ανησυχίες, με αιχμή το ότι η εταιρεία δεν έχει κάνει αρκετά για να αποτρέψει τα συστήματά της από το να γίνουν επικίνδυνα.

Οι ίδιοι λένε ότι η OpenAI, η οποία ξεκίνησε ως ένα μη κερδοσκοπικό ερευνητικό εργαστήριο και εκτόξευσε τη φήμη της με την κυκλοφορία του ChatGPT το 2022, δίνει προτεραιότητα στα κέρδη και την ανάπτυξη, καθώς προσπαθεί να δημιουργήσει ένα πρόγραμμα υπολογιστή ικανό να κάνει οτιδήποτε μπορεί ένας άνθρωπος, με άλλα λόγια την AGI.

Ισχυρίζονται επίσης ότι η OpenAI έχει χρησιμοποιήσει σιδηρά πυγμή για να εμποδίσει τους εργαζόμενους να εκφράσουν τις ανησυχίες τους σχετικά με την τεχνολογία, συμπεριλαμβανομένων περιοριστικών συμφωνιών που οι αποχωρούντες υποχρεώθηκαν να υπογράψουν.

«Η OpenAI είναι πραγματικά ενθουσιασμένη με τη δημιουργία της AGI, και τρέχουν απερίσκεπτα ώστε να είναι οι πρώτοι», δήλωσε ο Ντάνιελ Κοκοτάλιο, πρώην ερευνητής στο τμήμα διακυβέρνησης της OpenAI και ένας από τους επικεφαλής της ομάδας που έχει συσπειρωθεί προκειμένου να αποτρέψει τα χειρότερα.

Η ομάδα δημοσίευσε ανοιχτή επιστολή με την οποία καλεί τις κορυφαίες εταιρείες, συμπεριλαμβανομένης της OpenAI, να εφαρμόζουν μεγαλύτερη διαφάνεια και να διασφαλίζουν προστασία για όσους καταγγέλλουν τις παρεκτροπές.

Στην εν λόγω ομάδα βρίσκονται επίσης ο Γουίλιαμ Σόντερς, ερευνητής μηχανικός που έφυγε από την OpenAI τον Φεβρουάριο, και τρεις ακόμα πρώην εργαζόμενοι της OpenAI: η Κάρολ Γουεϊνράιτ, ο Τζέικομπ Χίλτον και ο Ντάνιελ Ζίγκλερ.

Ενας νυν και ένας πρώην υπάλληλος της Google DeepMind υπέγραψαν επίσης.

Από τους ΝΥΤ ζητήθηκαν δηλώσεις και η εκπρόσωπος της OpenAI, Λίντζεϊ Χελντ, ανέφερε: «Είμαστε υπερήφανοι για το ιστορικό μας που παρέχει τα πιο ικανά και ασφαλή συστήματα ΑΙ και πιστεύουμε στην επιστημονική μας προσέγγιση για την αντιμετώπιση του κινδύνου. Συμφωνούμε ότι η αυστηρή συζήτηση είναι ζωτικής σημασίας δεδομένης της σημασίας αυτής της τεχνολογίας και θα συνεχίσουμε να συνεργαζόμαστε με τις κυβερνήσεις, την κοινωνία των πολιτών και άλλες κοινότητες σε όλο τον κόσμο».

Εκπρόσωπος της Google αρνήθηκε να σχολιάσει.

Η εκστρατεία έρχεται σε μια δύσκολη στιγμή για την OpenAI, που ακόμα επουλώνει τις πληγές της μετά την ταραχώδη υπόθεση του Αλτμαν.

Η εταιρεία αντιμετωπίζει επίσης νομικές διαμάχες με δημιουργούς περιεχομένου που την έχουν κατηγορήσει ότι κλέβει έργα που προστατεύονται από πνευματικά δικαιώματα για να εκπαιδεύσει τα μοντέλα της.

(Οι New York Times μήνυσαν πέρυσι την OpenAI και τον συνεργάτη της, τη Microsoft, για παραβίαση πνευματικών δικαιωμάτων).

Και η πρόσφατη παρουσίαση ενός υπερρεαλιστικού φωνητικού βοηθού αμαυρώθηκε από μια δημόσια διαμάχη με την ηθοποιό Σκάρλετ Γιόχανσον, η οποία ισχυρίστηκε ότι η OpenAI είχε μιμηθεί τη φωνή της χωρίς να έχει λάβει τη σχετική άδεια.

Αλλά τίποτα δεν έχει βαρύνει τόσο, όσο η κατηγορία ότι η OpenAI είναι επιπόλαιη όσον αφορά στην ασφάλεια.

Τον περασμένο μήνα, δύο ανώτεροι ερευνητές της τεχνητής νοημοσύνης –ο Ιλια Σουτσκέβερ και ο Γιαν Λέικε– εγκατέλειψαν την OpenAI.

Ο δρ Σουτσκέβερ, ο οποίος ήταν μέλος του Δ.Σ. της OpenAI και ψήφισε υπέρ της απόλυσης του Αλτμαν, είχε σημάνει συναγερμό σχετικά με τους πιθανούς κινδύνους των ισχυρών συστημάτων ΑΙ.

Η αποχώρησή του ερμηνεύτηκε από πολλούς ως οπισθοδρόμηση της OpenAI σε θέματα ασφάλειας.

Το ίδιο συνέβη και με την αποχώρηση του δρος Λέικε, ο οποίος μαζί με τον Σουτσκέβερ ήταν επικεφαλής της ομάδας της OpenAI, η οποία διαχειριζόταν τους κινδύνους των ισχυρών μοντέλων τεχνητής νοημοσύνης.

Σε μια σειρά από αναρτήσεις, ο δρ Λέικε εξέφρασε την πεποίθηση ότι «η κουλτούρα και οι διαδικασίες ασφάλειας έχουν περάσει σε δεύτερη μοίρα έναντι των λαμπερών προϊόντων».

«Οταν υπέγραψα το συμβόλαιό μου για την OpenAI, δεν συμφωνούσα με τη στάση: “Ας βγάλουμε τα προϊόντα στον κόσμο, ας δούμε τι θα συμβεί και ας τα διορθώσουμε μετά”», δήλωσε ο Γουίλιαμ Σόντερς.

Ορισμένοι από τους πρώην υπαλλήλους έχουν δεσμούς με τον «αποτελεσματικό αλτρουισμό», ένα κίνημα το οποίο τα τελευταία χρόνια ασχολείται με την αποτροπή υπαρξιακών απειλών από την ΑΙ.

Υπάρχουν βεβαίως και οι επικριτές, που κατηγορούν το κίνημα ότι προωθεί σενάρια καταστροφής για την τεχνολογία, όπως η ιδέα ότι ένα ανεξέλεγκτο σύστημα ΑΙ θα μπορούσε να εξαλείψει την ανθρωπότητα.

Ο 31χρονος Κοκοτάλιο εντάχθηκε στην OpenAI το 2022 ως ερευνητής και του ζητήθηκε να προβλέψει την πρόοδο της τεχνητής νοημοσύνης. Δεν ήταν αισιόδοξος. Στην προηγούμενη δουλειά του σε έναν οργανισμό ασφάλειας ΑΙ, προέβλεψε ότι η ΑGΙ θα μπορούσε να εμφανιστεί το 2050.

Βλέποντας ωστόσο την πρόοδο της τεχνητής νοημοσύνης, έσπευσε να αναθεωρήσει. Τώρα πιστεύει ότι υπάρχει 50% πιθανότητα να φτάσει η ΑGΙ μέχρι το 2027 – σε μόλις τρία χρόνια.

Πιστεύει επίσης ότι η πιθανότητα η προηγμένη ΑGΙ να καταστρέψει ή να βλάψει την ανθρωπότητα –μια ζοφερή στατιστική που συχνά αποκαλείται «p(doom)»– αγγίζει το 70%.

Στην OpenAI, ο κ. Κοκοτάλιο είδε ότι παρόλο που η εταιρεία είχε πρωτόκολλα ασφαλείας –συμπεριλαμβανομένης μιας κοινής προσπάθειας με τη Microsoft, γνωστής ως «Συμβούλιο Ασφαλείας Ανάπτυξης», η οποία υποτίθεται ότι θα εξέταζε τα νέα μοντέλα για σημαντικούς κινδύνους πριν από τη δημόσια κυκλοφορία τους – σπάνια φαινόταν να επιβραδύνουν το οτιδήποτε.

Για παράδειγμα, όπως είπε, το 2022 η Microsoft άρχισε να δοκιμάζει αθόρυβα στην Ινδία μια νέα έκδοση της μηχανής αναζήτησης Bing που κάποιοι υπάλληλοι της OpenAI πίστευαν ότι περιείχε μια έκδοση του GPT-4, που δεν είχε κυκλοφορήσει.

Ο κ. Κοκοτάλιο διηγήθηκε ότι του είπαν πως η Microsoft δεν είχε πάρει την έγκριση του Συμβουλίου Ασφαλείας πριν δοκιμάσει το νέο μοντέλο κι αφού το Συμβούλιο έμαθε για τις δοκιμές –μέσω μιας σειράς αναφορών ότι το Bing συμπεριφερόταν περίεργα προς τους χρήστες – δεν έκανε τίποτα για να σταματήσει τη Microsoft από το να το κυκλοφορήσει ευρύτερα.

Ο Φρανκ Σο, εκπρόσωπος της Microsoft, αμφισβήτησε τους ισχυρισμούς. Είπε ότι οι δοκιμές στην Ινδία δεν είχαν χρησιμοποιήσει το GPT-4 ή οποιοδήποτε μοντέλο OpenAI. Η πρώτη φορά που η Microsoft κυκλοφόρησε τεχνολογία βασισμένη στο GPT-4 ήταν στις αρχές του 2023, ανέφερε, και είχε εξεταστεί και εγκριθεί από έναν προκάτοχο του Συμβουλίου Ασφαλείας.

Ο κ. Κοκοτάλιο είχε ανησυχήσει σε τέτοιο βαθμό που, πέρυσι, είπε στον κ. Αλτμαν ότι η εταιρεία θα πρέπει να «στραφεί προς την ασφάλεια» και να δαπανήσει περισσότερο χρόνο και πόρους για να προφυλαχθεί από τους κινδύνους της ΑΙ αντί να προχωρήσει στη βελτίωση των μοντέλων της.

Τον Απρίλιο, παραιτήθηκε. Σε μήνυμα ηλεκτρονικού ταχυδρομείου προς την ομάδα του, είπε ότι αποχωρεί επειδή είχε «χάσει την εμπιστοσύνη του ότι η OpenAI θα συμπεριφέρεται υπεύθυνα» καθώς τα συστήματά της πλησιάζουν την ανθρώπινη νοημοσύνη. «Ο κόσμος δεν είναι έτοιμος και εμείς δεν είμαστε έτοιμοι», έγραψε ο κ. Κοκοτάλιο. «Και ανησυχώ ότι βιαζόμαστε να προχωρήσουμε ανεξάρτητα και εκλογικεύουμε τις ενέργειές μας».

Η OpenAI δήλωσε την περασμένη εβδομάδα ότι έχει ξεκινήσει την εκπαίδευση ενός νέου εμβληματικού μοντέλου τεχνητής νοημοσύνης και ότι συγκροτεί μια νέα επιτροπή ασφάλειας και προστασίας για να διερευνήσει τους κινδύνους που σχετίζονται με το μοντέλο αυτό κι άλλες μελλοντικές τεχνολογίες.

Κατά την αποχώρησή του, ο κ. Κοκοτάλιο αρνήθηκε να υπογράψει τα τυπικά έγγραφα της OpenAI για τους αποχωρούντες υπαλλήλους, τα οποία περιλάμβαναν μια αυστηρή ρήτρα μη δυσφήμισης που τους απαγορεύει να μιλάνε αρνητικά για την εταιρεία, αλλιώς κινδυνεύουν να χάσουν το μετοχικό τους κεφάλαιο.

Πολλοί εργαζόμενοι θα μπορούσαν να χάσουν εκατομμύρια δολάρια αν αρνούνταν να υπογράψουν. Ο κ. Κοκοτάλιο είπε ότι η αξία του μετοχικού κεφαλαίου του ήταν περίπου 1,7 εκατομμύρια δολάρια, που αντιστοιχούσε στη συντριπτική πλειονότητα της καθαρής του περιουσίας, και ήταν έτοιμος να το χάσει όλο.

Στην ανοικτή επιστολή τους, ο κ. Κοκοτάλιο και οι άλλοι πρώην εργαζόμενοι της OpenAI, ζητούν να σταματήσει η χρήση τέτοιων συμφωνιών στην OpenAI και σε άλλες εταιρείες ΑΙ. «Οι συμφωνίες εμπιστευτικότητας μας εμποδίζουν να εκφράσουμε τις ανησυχίες μας, εκτός από τις ίδιες τις εταιρείες που μπορεί να αποτυγχάνουν να αντιμετωπίσουν αυτά τα ζητήματα», γράφουν.

Ζητούν επίσης από τις εταιρείες ΑΙ να «υποστηρίξουν μια κουλτούρα ανοιχτής κριτικής» και να καθιερώσουν μια διαδικασία αναφοράς για τους εργαζόμενους ώστε να αναφέρουν ανώνυμα τις ανησυχίες που σχετίζονται με την ασφάλεια.

Εχουν στο πλευρό τους pro bono έναν δικηγόρο, τον Λόρενς Λέσιγκ, διακεκριμένο νομικό μελετητή και ακτιβιστή, που συμβούλευσε επίσης τη Φράνσις Χόγκιν, πρώην υπάλληλο του Facebook, η οποία έγινε πληροφοριοδότης και κατηγόρησε την εταιρεία ότι βάζει τα κέρδη πάνω από την ασφάλεια.

Σε συνέντευξή του, ο κ. Λέσιγκ δήλωσε ότι ενώ η παραδοσιακή προστασία των πληροφοριοδοτών εφαρμόζεται συνήθως σε αναφορές παράνομης δραστηριότητας, είναι σημαντικό για τους υπαλλήλους των εταιρειών τεχνητής νοημοσύνης να μπορούν να συζητούν ελεύθερα τους κινδύνους και τις πιθανές βλάβες, δεδομένης της σημασίας της που έχει η συγκεκριμένη τεχνολογία.

Οι εργαζόμενοι είναι μια σημαντική γραμμή άμυνας για την ασφάλεια και αν δεν μπορούν να μιλήσουν ελεύθερα χωρίς αντίποινα, αυτός ο δίαυλος θα κλείσει, επισήμανε.

Η κ. Χελντ, εκπρόσωπος της OpenAI, δήλωσε ότι η εταιρεία διαθέτει «τρόπους για να εκφράσουν οι εργαζόμενοι τις ανησυχίες τους», συμπεριλαμβανομένης μιας ανώνυμης γραμμής επικοινωνίας για την ακεραιότητα.

Ο κ. Κοκοτάλιο και η ομάδα του εμφανίζονται επιφυλακτικοί απέναντι στο σενάριο ότι από μόνη της η αυτορύθμιση είναι ικανή για να προετοιμαστεί ο κόσμος για πιο ισχυρά συστήματα Α.Ι.

Ως εκ τούτου, ζητούν από τους βουλευτές να ρυθμίσουν την εν λόγω βιομηχανία.

«Πρέπει να υπάρχει κάποιο είδος δημοκρατικά υπεύθυνης, διαφανούς δομής διακυβέρνησης που να είναι υπεύθυνη για αυτή τη διαδικασία, αντί για μερικές διαφορετικές ιδιωτικές εταιρείες που ανταγωνίζονται μεταξύ τους και κρατούν τα πάντα στο σκοτάδι», δήλωσε.

Πηγή: kathimerini.gr

ΑΚΟΛΟΥΘΗΣΤΕ ΜΑΣ ΣΤΟ GOOGLE NEWS ΚΑΝΟΝΤΑΣ ΚΛΙΚ ΕΔΩ