Με αυτόν τον τρόπο το OpenAI θα αξιολογήσει την ισχύ των συστημάτων τεχνητής νοημοσύνης του

 
dd

Ενημερώθηκε: 12/07/24 - 11:40

ΗOpenAI δημιούργησε μια εσωτερική κλίμακα για να παρακολουθεί την πρόοδο που σημειώνουν τα μεγάλα γλωσσικά μοντέλα της, όσον αφορά προς την κατεύθυνση της γενικής τεχνητής νοημοσύνης ή της τεχνητής νοημοσύνης που φτάνει σε ανθρώπινο επίπεδο, δήλωσε εκπρόσωπος στο Bloomberg.

Τα σημερινά chatbots, όπως το ChatGPT, βρίσκονται στο επίπεδο 1.

Το OpenAI ισχυρίζεται ότι σιγά σιγά πλησιάζει στο επίπεδο 2, το οποίο ορίζεται ως ένα σύστημα που μπορεί να επιλύει βασικά προβλήματα στο επίπεδο ενός ανθρώπου με διδακτορικό.

Το επίπεδο 3 αναφέρεται σε ένα λογισμικό τεχνητής νοημοσύνης που είναι σε θέση να αναλάβει ενέργειες στη θέση ενός χρήστη.

Το επίπεδο 4 αφορά την τεχνητή νοημοσύνη που μπορεί να παράγει νέες καινοτομίες.

Το επίπεδο 5, το τελικό βήμα για την επίτευξη της γενικής τεχνητής νοημοσύνης, είναι η τεχνητή νοημοσύνη που μπορεί να εκτελεί την εργασία ολόκληρων ομαδών ανθρώπων.

Το OpenAI έχει προηγουμένως ορίσει την γενική τεχνητή νοημοσύνη ως "ένα εξαιρετικά αυτόνομο σύστημα που ξεπερνά τον άνθρωπο στις περισσότερες οικονομικά πολύτιμες εργασίες".

Παρόλα αυτά, η γενική τεχνητή νοημοσύνη απέχει ακόμα αρκετά: θα χρειαστούν δισεκατομμύρια και δισεκατομμύρια δολάρια υπολογιστικής ισχύος για να φτάσουμε σε αυτήν, αν φτάσουμε καθόλου.

Τα χρονοδιαγράμματα από τους ειδικούς, ακόμη και στο OpenAI, ποικίλλουν σε μεγάλο βαθμό. Τον Οκτώβριο του 2023, ο διευθύνων σύμβουλος της OpenAI Sam Altman δήλωσε ότι είμαστε "πέντε χρόνια, πάνω κάτω" πριν φτάσουμε στην γενική τεχνητή νοημοσύνη.

Αυτή η νέα κλίμακα διαβάθμισης, αν και βρίσκεται ακόμη υπό ανάπτυξη, παρουσιάστηκε μία ημέρα αφότου η OpenAI ανακοίνωσε τη συνεργασία της με το Εθνικό Εργαστήριο Los Alamos, που αποσκοπεί στη διερεύνηση του τρόπου με τον οποίο προηγμένα μοντέλα τεχνητής νοημοσύνης όπως το GPT-4o μπορούν να βοηθήσουν με ασφάλεια στη βιοεπιστημονική έρευνα.

Ένας υπεύθυνος προγράμματος στο Los Alamos, υπεύθυνος για το εθνικής ασφάλειας χαρτοφυλάκιο της βιολογίας και καθοριστικός παράγοντας για την εξασφάλιση της συνεργασίας με το OpenAI, δήλωσε στο The Verge ότι ο στόχος είναι να δοκιμαστούν οι δυνατότητες του GPT-4o αλλά και να καθιερωθεί ένα σετ ασφάλειας και άλλοι παράγοντες για την κυβέρνηση των ΗΠΑ.

Στο μέλλον, δημόσια ή ιδιωτικά μοντέλα θα μπορούν να δοκιμαστούν με βάση αυτούς τους παράγοντες για να αξιολογήσουν τα δικά τους μοντέλα.

Τον Μάιο, η OpenAI διέλυσε την ομάδα ασφαλείας της μετά την αποχώρηση του επικεφαλής της ομάδας, του συνιδρυτή της OpenAI Ilya Sutskever, από την εταιρεία.

Ο Jan Leike, ένας βασικός ερευνητής της OpenAI, παραιτήθηκε αμέσως μετά, υποστηρίζοντας σε μια ανάρτηση ότι "η κουλτούρα και οι διαδικασίες ασφάλειας έχουν περάσει σε δεύτερη μοίρα έναντι των λαμπερών προϊόντων" στην εταιρεία.

Αν και η OpenAI αρνήθηκε ότι αυτό συνέβη, ορισμένοι ανησυχούν για το τι σημαίνει αυτό αν η εταιρεία φτάσει όντως στην γενική τεχνητή νοημοσύνη.

Η OpenAI δεν έχει δώσει λεπτομέρειες σχετικά με τον τρόπο με τον οποίο αναθέτει τα μοντέλα σε αυτά τα εσωτερικά επίπεδα (και αρνήθηκε το αίτημα του The Verge για σχολιασμό).

Ωστόσο, οι ηγέτες της εταιρείας παρουσίασαν ένα ερευνητικό έργο που χρησιμοποιεί το μοντέλο GPT-4 AI κατά τη διάρκεια μιας συνάντησης όλων των εργαζομένων την Πέμπτη και πιστεύουν ότι αυτό το έργο παρουσιάζει κάποιες νέες δεξιότητες που παρουσιάζουν λογική που μοιάζει με την ανθρώπινη, σύμφωνα με το Bloomberg.

Αυτή η κλίμακα θα μπορούσε να βοηθήσει στην παροχή ενός αυστηρού ορισμού της προόδου, αντί να την αφήνει στην ερμηνεία του καθενός.

Για παράδειγμα, η Γενική Διευθύντρια Τεχνολογίας της OpenAI Mira Murati δήλωσε σε συνέντευξή της τον Ιούνιο, ότι τα μοντέλα στα εργαστήριά της δεν είναι πολύ καλύτερα από αυτά που έχει ήδη το κοινό.

Εν τω μεταξύ, ο διευθύνων σύμβουλος Sam Altman δήλωσε στα τέλη του περασμένου έτους ότι η εταιρεία πρόσφατα "έσπρωξε το πέπλο της άγνοιας προς τα πίσω", πράγμα που σημαίνει ότι τα μοντέλα είναι αξιοσημείωτα πιο έξυπνα.

ΑΚΟΛΟΥΘΗΣΤΕ ΜΑΣ ΣΤΟ GOOGLE NEWS ΚΑΝΟΝΤΑΣ ΚΛΙΚ ΕΔΩ