Πρόσφατα, ο Lex Fridman κυκλοφόρησε ένα πεντάωρο podcast με τους Dario Amodei, Amanda Askell και Chris Olah του Anthropic AI.
Αφού δημοσίευσε το αρκετά μακροσκελές άρθρο του σχετικά με το όραμα για την ανάπτυξη της τεχνητής νοημοσύνης "Machines of Loving Grace" , ο Dario επεκτείνεται σε αυτό καθώς, επίσης, ήταν το κύριο επίκεντρο της συνομιλίας του με τον Lex με άλλα μέλη της Anthropic που επεκτείνονται σε αυτά τα θέματα.
Για όσους είναι λιγότερο σπασμωδικοί από εμένα, σκέφτηκα ότι θα ήταν ωραίο να συνοψίσω τις βασικές ιδέες που έπρεπε να μοιραστεί αυτή η κορυφαία ομάδα τεχνητής νοημοσύνης. Από την κυκλοφορία του Claude 3.5 Sonnet (Νέο) αυτό το φθινόπωρο, είναι σαφές ότι η πρόοδος της Anthropic στα LLMs είναι ίδια με ό,τι έχει επιτύχει το openAI με το μοντέλο προεπισκόπησης o1. Είναι από τους ηγέτες σε αυτόν τον αγώνα τεχνητής νοημοσύνης που τους δίνει καλή εξουσία στο θέμα.
Εκτός από το να επαναλάβω όσα ειπώθηκαν από την ομάδα του Anthropic, θα ήθελα επίσης να φανταστώ τι σημαίνει κάθε σημείο για το μέλλον της πρακτικής εφαρμογής AI σε 1 χρόνο από τώρα και σε 5 χρόνια από τώρα ως δύο σημαντικά χρονοδιαγράμματα. Περιμένω να κάνω λάθος με τις προβλέψεις μου (απλά πάρα πολλοί παράγοντες παίζουν), αλλά νομίζω ότι είναι διασκεδαστικό να εκτελούμε πνευματική γυμναστική και να κοιτάμε αυτό το κείμενο όταν εμφανιζόμαστε σε αυτό το «πραγματικό μέλλον» χρονικά.
Δεν ξέρουμε πότε το εφέ κλιμάκωσης θα επιδεινωθεί, αλλά ΟΧΙ ΑΚΟΜΑ
Ένα από τα βασικά σημεία για μένα ήταν η άποψή του για τα μελλοντικά αποτελέσματα της συνέχισης της πορείας της υπόθεσης κλιμάκωσης (η ιδέα ότι η παροχή περισσότερων, καλύτερων δεδομένων με πιο ικανούς υπολογισμούς θα κάνει τα μοντέλα αναλόγως πιο έξυπνα). Ο Dario φαίνεται να υπαινίσσεται ότι η απλή χρήση όλων των παλιών τεχνικών και η προσθήκη περισσότερων δεδομένων μπορεί να μην είναι πλέον πολύ αποτελεσματική για τη σημαντική ενίσχυση της τεχνητής νοημοσύνης. Ο κύριος στόχος των εργαστηρίων τεχνητής νοημοσύνης αυτή τη στιγμή είναι να κατανοήσουν ποιο τμήμα να κλιμακωθεί.
Μερικές από τις πολλά υποσχόμενες οδούς κατά την άποψή του είναι η παραγωγή συνθετικών δεδομένων (εφαρμογή της προσέγγισης AlphaGo στην εκπαίδευση δοκιμών και σφαλμάτων για σύνθετες εργασίες) ή η προσθήκη περισσότερων από τα προστατευτικά δεδομένα , π.χ. δίνοντας στα μοντέλα παραδείγματα καλών απαντήσεων και κακών απαντήσεων για συγκεκριμένους τομείς, ώστε να κατανοεί τους γενικούς κανόνες και να τους εφαρμόζει λίγο καλύτερα.
2025 - η προσέγγιση αυτοεκπαίδευσης AlphaGo AI θα γίνει πιο κοινή και τα μοντέλα θα ξεπεράσουν την ανθρώπινη ικανότητα σε πρόσθετες σύνθετες ασκήσεις που έχουν σχεδόν άμεσο βρόχο ανατροφοδότησης (ίσως συναλλαγές)
2030 - η προσέγγιση αυτοεκπαίδευσης AlphaGo θα μπορούσε να γενικευθεί σε μοντέλα τέτοια ώστε να αυτοβελτιώνονται σε δύσκολες πρακτικές εργασίες όταν τους δίνεται επαρκής χρόνος για την εξάσκηση της εργασίας.
2. Η προσέγγιση για την ασφάλεια της τεχνητής νοημοσύνης θα αναπτυχθεί παράλληλα με την ανάπτυξη μοντέλων
Η αυτονομία και η κακή χρήση ενέχουν τους μεγαλύτερους κινδύνους.
Ο Dario ισχυρίζεται ότι η ομάδα του δοκιμάζει και τους δύο κινδύνους κάθε φορά που εκπαιδεύει ένα νέο μοντέλο, ώστε να μπορεί να δημιουργήσει προληπτικά μέτρα πριν το κυκλοφορήσει.
ASL-1 (σαν σκακιστικό bot) - δεν εγκυμονεί κινδύνους
ASL-2 (τρέχοντα μοντέλα τεχνητής νοημοσύνης) - δεν παρέχει πολλές επικίνδυνες πληροφορίες πέρα από αυτές που μπορούν απλά να αναζητηθούν στο google.
ASL-3 (μπορεί να αυξήσει τις ικανότητες των παραβατών) - η ενεργοποίηση στον κυβερνοχώρο, τα πυρηνικά, τα βιολογικά όπλα μέσω αυτών των συστημάτων θα πρέπει να νευροποιηθεί σοβαρά για να μπορέσουν να κυκλοφορήσουν τα μοντέλα.
ASL-4+ (Πιο έξυπνο από το ASL-3 + αυτόνομο) - δεν είναι ξεκάθαρο πώς θα ελέγχονται ακόμη, θα απορριφθούν μόνο όταν υπάρχουν σημάδια ενός τέτοιου μοντέλου μετά την εκπαίδευση.
2025 - Ο Dario αναμένει το ASL-3 το επόμενο έτος. Πιστεύω ότι η ανθρώπινη κακή χρήση αυτών των συστημάτων θα συμβεί παρά τα προστατευτικά κιγκλιδώματα, καθώς δεν θα είναι δυνατό να εντοπιστούν όλα τα σφάλματα πριν από την κυκλοφορία (νέες απάτες ή ιοί λογισμικού).
2030 - πολλαπλές και ικανές ρομποτικές εφαρμογές τεχνητής νοημοσύνης, π.χ. ρομπότ Tesla Optimus , το AI θα ενσωματωθεί και θα είναι πολύ πιο έξυπνο από έναν μέσο άνθρωπο σε συγκεκριμένους τομείς. Μπορεί να είναι δύσκολο να αποτραπεί πλήρως η κατάχρηση τέτοιων πολύπλοκων συστημάτων, ειδικά σε περιπτώσεις όπου εκτελούν κοσμικές εργασίες για εγκληματίες.
3. Το AGI (ή με τα λόγια του Ντάριο « ισχυρό AI ») μπορεί να φτάσει μέχρι το 2027
Επαναλαμβάνει πολλές φορές ότι το πώς γίνεται η έξυπνη τεχνητή νοημοσύνη θα εξαρτάται από τον τομέα και ότι οι παρεμποδιστές στην ανάπτυξη της τεχνητής νοημοσύνης φαίνεται να σταματούν συνεχώς. Λογικά, χρησιμοποιώντας σωστά το περιεχόμενο που δημιουργείται από τον άνθρωπο, η ικανότητα των ανθρώπων να σκέφτονται θα πρέπει τελικά να αναπαραχθεί από την τεχνητή νοημοσύνη. Με την αναλογία των υπολογιστών που παίζουν σκάκι και του AlphaGo, είναι σαφές ότι σε συγκεκριμένες εργασίες το AI μπορεί να ξεπεράσει τις ανθρώπινες ικανότητες και όσο καλύτερα τεκμηριωμένος και άκαμπτος είναι αυτός ο τομέας, τόσο υψηλότερη θα πρέπει να είναι η απόδοση. Έτσι, το χειρότερο σενάριο ενός ενδεχόμενου AGI είναι η τεχνητή νοημοσύνη συλλογιστικής σε ανθρώπινο επίπεδο, η οποία έχει εξαιρετικές δυνατότητες σε συγκεκριμένους τομείς όπου μπορέσαμε να προχωρήσουμε περισσότερο την εκπαίδευσή της.
Ομοίως, η πραγματική εφαρμογή της τεχνητής νοημοσύνης θα εξαρτηθεί από το πόσο μακριά είναι η συγκεκριμένη βιομηχανία από τους προγραμματιστές τεχνητής νοημοσύνης. Σαφώς, είναι ευκολότερο γι' αυτούς να δοκιμάσουν και να προσαρμόσουν νέα μοντέλα για να βοηθήσουν στη σύνταξη κώδικα παρά να κάνουν καλή χρήση αυτών των μοντέλων σε ένα αγροτικό περιβάλλον. Με αυτή τη λογική, η πληροφορική/κωδικοποίηση, η επιστήμη, οι μεγάλες επιχειρήσεις και μόνο τότε τα άλλα μέρη της οικονομίας θα πρέπει να αισθάνονται τον αντίκτυπο της τεχνητής νοημοσύνης, με αυτή τη σειρά.
2025 - Θα αρχίσουμε να βλέπουμε πιο εντυπωσιακές/αυτόνομες εφαρμογές τεχνητής νοημοσύνης, ειδικά στην κωδικοποίηση, όπου οι μη τεχνικοί διαχειριστές προϊόντων μπορούν να εκτελούν έργα που βασίζονται σε κώδικα χωρίς να ζητούν βοήθεια από έναν κωδικοποιητή.
2030 - Κάθε επιχείρηση θα ενσωματώσει την τεχνητή νοημοσύνη στη ροή εργασίας της με τον έναν ή τον άλλον τρόπο, τα μοντέλα συνόρων θα είχαν βοηθήσει πολλές επιστημονικές ανακαλύψεις σε τομείς όπως η Βιολογία, η Φυσική και τα Μαθηματικά.
Τα μοντέλα αναπτύσσονται αρκετά γρήγορα, αλλά παραμένουν ένα μαύρο κουτί, δεν είναι σαφές γιατί λειτουργούν καλά και γιατί λειτουργούν άσχημα.
Συχνά αυτό σημαίνει ότι η πραγματοποίηση αλλαγών / κλιμάκωσης τέτοιων μοντέλων οδηγεί σε παραισθήσεις, απρόβλεπτες ενέργειες ή εμφανείς συμπεριφορές που ιδανικά οι προγραμματιστές θα ήθελαν να κατανοήσουν εκ των προτέρων για να κάνουν ελεγχόμενες βελτιώσεις μοντέλων.
Η Anthropic αφιερώνει προσπάθειες για να περιγράψει τι πραγματικά συμβαίνει μέσα στο «μυαλό» του μοντέλου τους Claude. Αυτή η προσέγγιση, θεωρητικά, θα πρέπει να εξηγήσει γιατί ο Claude βγάζει ορισμένες απαντήσεις και πώς διαφορετικές μέθοδοι εκπαίδευσης βοηθούν τις αλλαγές στα μοτίβα που δημιουργούνται μέσα σε αυτό το νευρωνικό δίκτυο. Στην κορυφή, είναι απλά διασκεδαστικό να εξερευνήσετε.
Ανεξάρτητα από τις προβλέψεις, θα είναι διασκεδαστικό να παρατηρήσετε την επόμενη φάση της AI. Και, αν στην πραγματικότητα δεν συμβεί επανάσταση σε 5 χρόνια, θα είναι τουλάχιστον αναζωογονητικό να ξαναδιαβάζω αυτό το άρθρο καθώς τελικά επιλέγω να ακυρώσω τη συνδρομή μου OpenAI 300 $/μήνα.