paint-brush
Τι ακολουθεί για την AI: Ερμηνεύοντας το όραμα του CEO της Anthropicμε@learning2survive
721 αναγνώσεις
721 αναγνώσεις

Τι ακολουθεί για την AI: Ερμηνεύοντας το όραμα του CEO της Anthropic

με Vitalii Chukhlantcev6m2024/11/21
Read on Terminal Reader

Πολύ μακρύ; Να διαβασω

Το podcast του Lex Fridman με τους ηγέτες της Anthropic AI τόνισε βασικές πληροφορίες για την ανάπτυξη της τεχνητής νοημοσύνης: Εφέ κλιμάκωσης: Δεν έχει γίνει ακόμη οροπέδιο, αλλά επικεντρωθείτε στη μετατόπιση στην κατανόηση των πτυχών που θα κλιμακωθούν. Η παραγωγή συνθετικών δεδομένων και τα δεδομένα με προστατευτικά κιγκλιδώματα υπόσχονται πολλά. Ασφάλεια AI: Ανάπτυξη παράλληλα με την πρόοδο του μοντέλου. Οι κίνδυνοι κατηγοριοποιούνται σε επίπεδα ASL, με το ASL-3 (επιτρέπει τους παραβάτες) να αναμένεται το επόμενο έτος. Χρονοδιάγραμμα AGI: Δυνητικά έως το 2027, με πρόοδο που εξαρτάται από τον τομέα και ποσοστά υιοθέτησης ειδικά για τον κλάδο. Μηχανιστική Ερμηνεία: Αυξανόμενη σημασία για την κατανόηση και τον έλεγχο της συμπεριφοράς του μοντέλου. Οι προβλέψεις περιλαμβάνουν: 2025: Προηγμένη αυτοεκπαίδευση AI, ξεπερνώντας τους ανθρώπους σε συγκεκριμένες εργασίες. αυξημένη κατάχρηση τεχνητής νοημοσύνης παρά τις διασφαλίσεις· πιο αυτόνομες εφαρμογές AI, ειδικά στην κωδικοποίηση. 2030: Γενικευμένη αυτοβελτίωση AI. ενσωματωμένη τεχνητή νοημοσύνη πιο έξυπνη από τους ανθρώπους σε συγκεκριμένους τομείς· ευρεία ενσωμάτωση AI σε όλους τους κλάδους· πιθανές επιστημονικές ανακαλύψεις με τη βοήθεια της τεχνητής νοημοσύνης. Το άρθρο τονίζει τον γρήγορο ρυθμό ανάπτυξης της τεχνητής νοημοσύνης και την αβεβαιότητα γύρω από τις μελλοντικές επιπτώσεις της.
featured image - Τι ακολουθεί για την AI: Ερμηνεύοντας το όραμα του CEO της Anthropic
Vitalii Chukhlantcev HackerNoon profile picture
0-item

Πρόσφατα, ο Lex Fridman κυκλοφόρησε ένα πεντάωρο podcast με τους Dario Amodei, Amanda Askell και Chris Olah του Anthropic AI.


Αφού δημοσίευσε το αρκετά μακροσκελές άρθρο του σχετικά με το όραμα για την ανάπτυξη της τεχνητής νοημοσύνης "Machines of Loving Grace" , ο Dario επεκτείνεται σε αυτό καθώς, επίσης, ήταν το κύριο επίκεντρο της συνομιλίας του με τον Lex με άλλα μέλη της Anthropic που επεκτείνονται σε αυτά τα θέματα.


Anthropic' CEO article with the vision for AI

Για όσους είναι λιγότερο σπασμωδικοί από εμένα, σκέφτηκα ότι θα ήταν ωραίο να συνοψίσω τις βασικές ιδέες που έπρεπε να μοιραστεί αυτή η κορυφαία ομάδα τεχνητής νοημοσύνης. Από την κυκλοφορία του Claude 3.5 Sonnet (Νέο) αυτό το φθινόπωρο, είναι σαφές ότι η πρόοδος της Anthropic στα LLMs είναι ίδια με ό,τι έχει επιτύχει το openAI με το μοντέλο προεπισκόπησης o1. Είναι από τους ηγέτες σε αυτόν τον αγώνα τεχνητής νοημοσύνης που τους δίνει καλή εξουσία στο θέμα.


Εκτός από το να επαναλάβω όσα ειπώθηκαν από την ομάδα του Anthropic, θα ήθελα επίσης να φανταστώ τι σημαίνει κάθε σημείο για το μέλλον της πρακτικής εφαρμογής AI σε 1 χρόνο από τώρα και σε 5 χρόνια από τώρα ως δύο σημαντικά χρονοδιαγράμματα. Περιμένω να κάνω λάθος με τις προβλέψεις μου (απλά πάρα πολλοί παράγοντες παίζουν), αλλά νομίζω ότι είναι διασκεδαστικό να εκτελούμε πνευματική γυμναστική και να κοιτάμε αυτό το κείμενο όταν εμφανιζόμαστε σε αυτό το «πραγματικό μέλλον» χρονικά.



  1. Δεν ξέρουμε πότε το εφέ κλιμάκωσης θα επιδεινωθεί, αλλά ΟΧΙ ΑΚΟΜΑ

    Ένα από τα βασικά σημεία για μένα ήταν η άποψή του για τα μελλοντικά αποτελέσματα της συνέχισης της πορείας της υπόθεσης κλιμάκωσης (η ιδέα ότι η παροχή περισσότερων, καλύτερων δεδομένων με πιο ικανούς υπολογισμούς θα κάνει τα μοντέλα αναλόγως πιο έξυπνα). Ο Dario φαίνεται να υπαινίσσεται ότι η απλή χρήση όλων των παλιών τεχνικών και η προσθήκη περισσότερων δεδομένων μπορεί να μην είναι πλέον πολύ αποτελεσματική για τη σημαντική ενίσχυση της τεχνητής νοημοσύνης. Ο κύριος στόχος των εργαστηρίων τεχνητής νοημοσύνης αυτή τη στιγμή είναι να κατανοήσουν ποιο τμήμα να κλιμακωθεί.


    Μερικές από τις πολλά υποσχόμενες οδούς κατά την άποψή του είναι η παραγωγή συνθετικών δεδομένων (εφαρμογή της προσέγγισης AlphaGo στην εκπαίδευση δοκιμών και σφαλμάτων για σύνθετες εργασίες) ή η προσθήκη περισσότερων από τα προστατευτικά δεδομένα , π.χ. δίνοντας στα μοντέλα παραδείγματα καλών απαντήσεων και κακών απαντήσεων για συγκεκριμένους τομείς, ώστε να κατανοεί τους γενικούς κανόνες και να τους εφαρμόζει λίγο καλύτερα.


    • 2025 - η προσέγγιση αυτοεκπαίδευσης AlphaGo AI θα γίνει πιο κοινή και τα μοντέλα θα ξεπεράσουν την ανθρώπινη ικανότητα σε πρόσθετες σύνθετες ασκήσεις που έχουν σχεδόν άμεσο βρόχο ανατροφοδότησης (ίσως συναλλαγές)

    • 2030 - η προσέγγιση αυτοεκπαίδευσης AlphaGo θα μπορούσε να γενικευθεί σε μοντέλα τέτοια ώστε να αυτοβελτιώνονται σε δύσκολες πρακτικές εργασίες όταν τους δίνεται επαρκής χρόνος για την εξάσκηση της εργασίας.


      2. Η προσέγγιση για την ασφάλεια της τεχνητής νοημοσύνης θα αναπτυχθεί παράλληλα με την ανάπτυξη μοντέλων


    The current state of the art models (o1 & claude 3.5 sonnet) are ASL-2

Η αυτονομία και η κακή χρήση ενέχουν τους μεγαλύτερους κινδύνους.

Ο Dario ισχυρίζεται ότι η ομάδα του δοκιμάζει και τους δύο κινδύνους κάθε φορά που εκπαιδεύει ένα νέο μοντέλο, ώστε να μπορεί να δημιουργήσει προληπτικά μέτρα πριν το κυκλοφορήσει.


ASL-1 (σαν σκακιστικό bot) - δεν εγκυμονεί κινδύνους

ASL-2 (τρέχοντα μοντέλα τεχνητής νοημοσύνης) - δεν παρέχει πολλές επικίνδυνες πληροφορίες πέρα από αυτές που μπορούν απλά να αναζητηθούν στο google.

ASL-3 (μπορεί να αυξήσει τις ικανότητες των παραβατών) - η ενεργοποίηση στον κυβερνοχώρο, τα πυρηνικά, τα βιολογικά όπλα μέσω αυτών των συστημάτων θα πρέπει να νευροποιηθεί σοβαρά για να μπορέσουν να κυκλοφορήσουν τα μοντέλα.

ASL-4+ (Πιο έξυπνο από το ASL-3 + αυτόνομο) - δεν είναι ξεκάθαρο πώς θα ελέγχονται ακόμη, θα απορριφθούν μόνο όταν υπάρχουν σημάδια ενός τέτοιου μοντέλου μετά την εκπαίδευση.


  • 2025 - Ο Dario αναμένει το ASL-3 το επόμενο έτος. Πιστεύω ότι η ανθρώπινη κακή χρήση αυτών των συστημάτων θα συμβεί παρά τα προστατευτικά κιγκλιδώματα, καθώς δεν θα είναι δυνατό να εντοπιστούν όλα τα σφάλματα πριν από την κυκλοφορία (νέες απάτες ή ιοί λογισμικού).

  • 2030 - πολλαπλές και ικανές ρομποτικές εφαρμογές τεχνητής νοημοσύνης, π.χ. ρομπότ Tesla Optimus , το AI θα ενσωματωθεί και θα είναι πολύ πιο έξυπνο από έναν μέσο άνθρωπο σε συγκεκριμένους τομείς. Μπορεί να είναι δύσκολο να αποτραπεί πλήρως η κατάχρηση τέτοιων πολύπλοκων συστημάτων, ειδικά σε περιπτώσεις όπου εκτελούν κοσμικές εργασίες για εγκληματίες.


    3. Το AGI (ή με τα λόγια του Ντάριο « ισχυρό AI ») μπορεί να φτάσει μέχρι το 2027


    Επαναλαμβάνει πολλές φορές ότι το πώς γίνεται η έξυπνη τεχνητή νοημοσύνη θα εξαρτάται από τον τομέα και ότι οι παρεμποδιστές στην ανάπτυξη της τεχνητής νοημοσύνης φαίνεται να σταματούν συνεχώς. Λογικά, χρησιμοποιώντας σωστά το περιεχόμενο που δημιουργείται από τον άνθρωπο, η ικανότητα των ανθρώπων να σκέφτονται θα πρέπει τελικά να αναπαραχθεί από την τεχνητή νοημοσύνη. Με την αναλογία των υπολογιστών που παίζουν σκάκι και του AlphaGo, είναι σαφές ότι σε συγκεκριμένες εργασίες το AI μπορεί να ξεπεράσει τις ανθρώπινες ικανότητες και όσο καλύτερα τεκμηριωμένος και άκαμπτος είναι αυτός ο τομέας, τόσο υψηλότερη θα πρέπει να είναι η απόδοση. Έτσι, το χειρότερο σενάριο ενός ενδεχόμενου AGI είναι η τεχνητή νοημοσύνη συλλογιστικής σε ανθρώπινο επίπεδο, η οποία έχει εξαιρετικές δυνατότητες σε συγκεκριμένους τομείς όπου μπορέσαμε να προχωρήσουμε περισσότερο την εκπαίδευσή της.


    Ομοίως, η πραγματική εφαρμογή της τεχνητής νοημοσύνης θα εξαρτηθεί από το πόσο μακριά είναι η συγκεκριμένη βιομηχανία από τους προγραμματιστές τεχνητής νοημοσύνης. Σαφώς, είναι ευκολότερο γι' αυτούς να δοκιμάσουν και να προσαρμόσουν νέα μοντέλα για να βοηθήσουν στη σύνταξη κώδικα παρά να κάνουν καλή χρήση αυτών των μοντέλων σε ένα αγροτικό περιβάλλον. Με αυτή τη λογική, η πληροφορική/κωδικοποίηση, η επιστήμη, οι μεγάλες επιχειρήσεις και μόνο τότε τα άλλα μέρη της οικονομίας θα πρέπει να αισθάνονται τον αντίκτυπο της τεχνητής νοημοσύνης, με αυτή τη σειρά.


    • 2025 - Θα αρχίσουμε να βλέπουμε πιο εντυπωσιακές/αυτόνομες εφαρμογές τεχνητής νοημοσύνης, ειδικά στην κωδικοποίηση, όπου οι μη τεχνικοί διαχειριστές προϊόντων μπορούν να εκτελούν έργα που βασίζονται σε κώδικα χωρίς να ζητούν βοήθεια από έναν κωδικοποιητή.

    • 2030 - Κάθε επιχείρηση θα ενσωματώσει την τεχνητή νοημοσύνη στη ροή εργασίας της με τον έναν ή τον άλλον τρόπο, τα μοντέλα συνόρων θα είχαν βοηθήσει πολλές επιστημονικές ανακαλύψεις σε τομείς όπως η Βιολογία, η Φυσική και τα Μαθηματικά.


    1. Η μηχανιστική ερμηνεία γίνεται πιο σημαντική για τη συνεκτική ανάπτυξη μοντέλων


    Τα μοντέλα αναπτύσσονται αρκετά γρήγορα, αλλά παραμένουν ένα μαύρο κουτί, δεν είναι σαφές γιατί λειτουργούν καλά και γιατί λειτουργούν άσχημα.

    Συχνά αυτό σημαίνει ότι η πραγματοποίηση αλλαγών / κλιμάκωσης τέτοιων μοντέλων οδηγεί σε παραισθήσεις, απρόβλεπτες ενέργειες ή εμφανείς συμπεριφορές που ιδανικά οι προγραμματιστές θα ήθελαν να κατανοήσουν εκ των προτέρων για να κάνουν ελεγχόμενες βελτιώσεις μοντέλων.


    Ένας χάρτης των χαρακτηριστικών κοντά σε μια λειτουργία "Εσωτερική σύγκρουση", συμπεριλαμβανομένων συστάδων που σχετίζονται με την εξισορρόπηση των ανταλλαγών, τους ρομαντικούς αγώνες, τις αντικρουόμενες πίστεις και τα catch-22.


    Η Anthropic αφιερώνει προσπάθειες για να περιγράψει τι πραγματικά συμβαίνει μέσα στο «μυαλό» του μοντέλου τους Claude. Αυτή η προσέγγιση, θεωρητικά, θα πρέπει να εξηγήσει γιατί ο Claude βγάζει ορισμένες απαντήσεις και πώς διαφορετικές μέθοδοι εκπαίδευσης βοηθούν τις αλλαγές στα μοτίβα που δημιουργούνται μέσα σε αυτό το νευρωνικό δίκτυο. Στην κορυφή, είναι απλά διασκεδαστικό να εξερευνήσετε.


    • 2025 - Μια πιο ολοκληρωμένη περιγραφική ερμηνεία του μοντέλου Claude, με νέες οπτικοποιήσεις και λεπτομέρειες (δημοσιευμένες ή όχι ανάλογα με το πόσο ευαίσθητες μπορεί να είναι αυτές οι πληροφορίες για το ανταγωνιστικό πλεονέκτημα του Anthropic).


    • 2030 - Εάν η προσέγγιση της Anthropic είναι επιτυχής, κάθε σημαντικό εργαστήριο τεχνητής νοημοσύνης μπορεί να έχει δημιουργήσει έναν εσωτερικό χάρτη των συστημάτων τεχνητής νοημοσύνης τους (ερμηνευόμενος). Ωστόσο, εάν αυτή η προσέγγιση αποδειχθεί πολύ περιγραφική χωρίς πραγματικό αντίκτυπο στην ανάπτυξη μοντέλων, κανείς δεν θα θυμάται τη μηχανιστική ερμηνευτικότητα το 2030…


Σύναψη

Ανεξάρτητα από τις προβλέψεις, θα είναι διασκεδαστικό να παρατηρήσετε την επόμενη φάση της AI. Και, αν στην πραγματικότητα δεν συμβεί επανάσταση σε 5 χρόνια, θα είναι τουλάχιστον αναζωογονητικό να ξαναδιαβάζω αυτό το άρθρο καθώς τελικά επιλέγω να ακυρώσω τη συνδρομή μου OpenAI 300 $/μήνα.