Τα μεγαλύτερα τεχνολογικά εργαστήρια του κόσμου είναι κλειδωμένα σε μια μυστική κούρσα για να δημιουργήσουν την επόμενη επανάσταση στην τεχνητή νοημοσύνη – ίσως ακόμη και μια τεχνητή γενική νοημοσύνη (AGI), ένα σύστημα με γνωστικές ικανότητες επιπέδου ανθρώπου (ή και ανώτερες). Ενώ τα AI chatbots όπως το ChatGPT έχουν εντυπωσιάσει το κοινό, εσωτερικές πληροφορίες και διαρροές εγγράφων υποδηλώνουν ακόμη πιο ισχυρά μεγάλα γλωσσικά μοντέλα (LLMs) και έργα AGI που ετοιμάζονται πίσω από κλειστές πόρτες. Από άκρως απόρρητη έρευνα στην OpenAI και τη DeepMind μέχρι μυστικά κυβερνητικά προγράμματα, ένα δίκτυο μυστικότητας περιβάλλει αυτές τις εξελίξεις. Αυτή η αναφορά ερευνά τις πιο πρόσφατες (2024–2025) διαρροές και εικασίες σχετικά με αδημοσίευτα μοντέλα AI, την κουλτούρα μυστικότητας μεταξύ των ηγετών της AI, τη γεωπολιτική αντιπαλότητα στον τομέα της AI και τα ηθικά διλήμματα της ανάπτυξης ισχυρής AI στο σκοτάδι. Θα διαχωρίσουμε τα επιβεβαιωμένα γεγονότα από τις φήμες, θα παραθέσουμε ειδικούς και πληροφοριοδότες και θα εξετάσουμε τι σημαίνουν όλα αυτά για την κοινωνία.
Διαρροές και Φήμες για Αποκρυφθείσες Εξελίξεις στην AI (2024–2025)
Η «Q» Ανακάλυψη της OpenAI: Στα τέλη του 2023, μια εσωτερική επιστολή από ερευνητές της OpenAI προς το διοικητικό συμβούλιο προκάλεσε θύελλα εικασιών reuters.com. Η επιστολή προειδοποιούσε για έναν ισχυρό αλγόριθμο τεχνητής νοημοσύνης, γνωστό με την κωδική ονομασία «Q» (Q-Star), που το προσωπικό πίστευε ότι θα μπορούσε να αποτελέσει σημαντικό βήμα προς την AGI reuters.com. Σύμφωνα με το ρεπορτάζ του Reuters, το μοντέλο έδειξε μια πρωτοφανή ικανότητα να λύνει ορισμένα μαθηματικά προβλήματα – σε επίπεδο περίπου δημοτικού σχολείου, αλλά το έκανε συνεχώς και σωστά reuters.com. Αυτό ήταν αξιοσημείωτο επειδή οι σημερινές γενετικές AIs (όπως το ChatGPT) συχνά δυσκολεύονται με τα μαθηματικά ή τη λογική συνέπεια. «Κάποιοι στην OpenAI πιστεύουν ότι το Q θα μπορούσε να είναι μια ανακάλυψη στην αναζήτηση της startup για αυτό που είναι γνωστό ως AGI», έγραψε η Reuters, σημειώνοντας ότι η επιτυχία ακόμα και σε μαθηματικά δημοτικού έκανε τους ερευνητές «πολύ αισιόδοξους για το μέλλον του Q» reuters.com. Η OpenAI δεν έχει δημοσιεύσει δημόσια το Q ούτε έχει επιβεβαιώσει πλήρως τις δυνατότητές του, αλλά αναγνώρισε ιδιωτικά την ύπαρξη του έργου στους υπαλλήλους μετά από ερωτήσεις των μέσων ενημέρωσης reuters.com. Η μυστικότητα γύρω από το Q – και ο δραματικός του ρόλος στην αιφνιδιαστική απομάκρυνση του CEO της OpenAI, Sam Altman, τον Νοέμβριο του 2023 – τροφοδότησε εικασίες ότι η OpenAI ίσως «έσπρωξε το πέπλο της άγνοιας πίσω» με μια σημαντική ανακάλυψη reuters.com. (Ο ίδιος ο Altman υπαινίχθηκε λίγες εβδομάδες νωρίτερα ότι «μεγάλες προόδους ήταν ορατές», λέγοντας αινιγματικά ότι είχε βρεθεί στο δωμάτιο για αρκετές στιγμές ανακάλυψης, «η πιο πρόσφατη [ήταν] μόλις τις τελευταίες δύο εβδομάδες» reuters.com.) Πολλοί παρατηρητές υποψιάζονται ότι το Q είναι μια μηχανή λογικής που, αν κλιμακωθεί, θα μπορούσε να λύνει νέα προβλήματα πέρα από αυτά που μπορούν να κάνουν τα σημερινά chatbots – ουσιαστικά ένα πιθανό σπέρμα της γενικής νοημοσύνης.GPT-5 και άλλα μη ανακοινωμένα μοντέλα: Το δημόσια διαθέσιμο μοντέλο της OpenAI το 2024 παραμένει το GPT-4 (το οποίο τροφοδοτεί το ChatGPT και το Bing), αλλά τι γίνεται με τον διάδοχό του; Η εταιρεία έχει υπάρξει εξαιρετικά φειδωλή σε δηλώσεις σχετικά με αυτό το θέμα. Τον Μάρτιο του 2023, πάνω από χίλιοι ειδικοί υπέγραψαν μια ανοιχτή επιστολή ζητώντας παύση στην εκπαίδευση συστημάτων «πιο ισχυρών από το GPT-4» λόγω ανησυχιών για την ασφάλεια reuters.com. Ο Sam Altman απάντησε διαβεβαιώνοντας ότι η OpenAI «δεν [εκπαιδεύει] το GPT-5» και δεν θα το κάνει για κάποιο διάστημα techcrunch.com. Μέχρι τα μέσα του 2024, ο Altman επανέλαβε ότι είχαν «πολλή δουλειά να κάνουν» σε νέες ιδέες πριν ξεκινήσουν το GPT-5 techcrunch.com. Παρ’ όλα αυτά, επιμένουν φήμες ότι προκαταρκτική εργασία βρίσκεται σε εξέλιξη εσωτερικά για το μοντέλο επόμενης γενιάς – είτε ονομαστεί GPT-5 είτε κάτι άλλο. Η OpenAI φημίζεται ότι αρνήθηκε να αποκαλύψει οποιεσδήποτε λεπτομέρειες για την κατασκευή του GPT-4 (περισσότερα παρακάτω), οπότε η ολόκληρη ύπαρξη και πρόοδος του GPT-5 (αν υπάρχει) πιθανότατα θα παραμείνει μυστική μέχρι μια δημόσια κυκλοφορία. Αξιοσημείωτα, μια πρόσφατη ανάλυση στην The Guardian (Αύγ. 2025) ανέφερε το «νέο μοντέλο GPT-5 της OpenAI» ως «ένα σημαντικό βήμα προς την AGI» – αν και ακόμα «του λείπει κάτι αρκετά σημαντικό» όσον αφορά την πραγματική ανθρώπινη-όμοια μάθηση theguardian.com. Αυτό υποδηλώνει ότι μέχρι το 2025, το GPT-5 ίσως έχει παρουσιαστεί με τυμπανοκρουσίες, αλλά ακόμα και αυτό ίσως να μην είναι η απόλυτη ανακάλυψη που κάποιοι φοβούνται ότι κρύβεται ιδιωτικά. Σε κάθε περίπτωση, η ανάπτυξη του GPT-5 έχει καλυφθεί από ασυνήθιστη μυστικότητα, με την OpenAI να μην επιβεβαιώνει ούτε να διαψεύδει την κατάστασή του για μεγάλο διάστημα – τροφοδοτώντας τις φήμες ότι κάτι μεγάλο μπορεί να συμβαίνει πίσω από κλειστές πόρτες.
Οι επόμενες κινήσεις της Google DeepMind: Ο βραχίονας AI της Google (που πλέον αποτελεί συγχώνευση των Google Brain και DeepMind) εργάζεται επίσης πάνω σε υπερ-προηγμένα μοντέλα, συχνά χωρίς δημόσιες κυκλοφορίες μέχρι τη στρατηγική στιγμή. Στα τέλη του 2023, η Google ανακοίνωσε ότι ανέπτυσσε το «Gemini», ένα μοντέλο AI επόμενης γενιάς που θα συνδύαζε τις τεχνικές του διάσημου AlphaGo της DeepMind με τις γλωσσικές δυνατότητες των LLMs en.wikipedia.org. Ενώ η ανάπτυξη του Gemini δημοσιοποιήθηκε, πολλές λεπτομέρειες παρέμειναν μυστικές μέχρι την τελική κυκλοφορία του. Στις αρχές του 2024, υπήρχαν αναφορές ότι το Gemini 1.0 ξεπέρασε το GPT-4 της OpenAI σε ορισμένα benchmarks iconext.co.th, και μια έκδοση Ultra βρισκόταν υπό ανάπτυξη. Αυτό το ανταγωνιστικό άλμα – που επιτεύχθηκε κυρίως εσωτερικά στη Google – δείχνει πώς οι τεχνολογικοί κολοσσοί συχνά εργάζονται σε stealth mode για επαναστατικά μοντέλα, αποκαλύπτοντάς τα μόνο όταν είναι έτοιμοι να διεκδικήσουν τα πρωτεία. Παρομοίως, η DeepMind έχει ιστορικό μυστικών έργων: για παράδειγμα, το LaMDA, το προηγμένο συνομιλιακό LLM της Google, αναπτύχθηκε εσωτερικά και ήταν γνωστό στο κοινό κυρίως μέσω ερευνητικών δημοσιεύσεων και μιας διαβόητης διαρροής (ο ισχυρισμός ενός μηχανικού της Google ότι το LaMDA ήταν «έμφυτο», περισσότερα γι’ αυτό αργότερα). Μόλις το 2022–2023, όταν το παράγωγο του LaMDA κυκλοφόρησε ως το chatbot Bard, το κοινό μπόρεσε να αλληλεπιδράσει μαζί του. Αυτό το μοτίβο – μακρά ανάπτυξη εν κρυπτώ, έπειτα ξαφνικό δημόσιο ντεμπούτο – φαίνεται να είναι ο κανόνας στον κλάδο. Άλλα εργαστήρια όπως η Anthropic (που ιδρύθηκε από αποφοίτους της OpenAI) έχουν επίσης υποδείξει σημαντικές αναβαθμίσεις μοντέλων στον ορίζοντα χωρίς να αποκαλύπτουν όλες τις λεπτομέρειες. Το 2023, ένα διαρρεύσαν fundraising deck της Anthropic περιέγραφε σχέδια για ένα μοντέλο «Claude-Next» που θα ήταν 10 φορές πιο ικανό από τα σημερινά ισχυρότερα AI και ίσως να απαιτούσε περίπου $1 δισεκατομμύριο σε υπολογιστική ισχύ για την εκπαίδευσή του techcrunch.com. Η Anthropic περιέγραψε αυτό το μοντέλο αιχμής ως στόχο για «AI self-teaching» και υπαινίχθηκε ότι θα μπορούσε να «αρχίσει να αυτοματοποιεί μεγάλα τμήματα της οικονομίας» techcrunch.com – μια φιλοδοξία που ισοδυναμεί με μια πρώιμη μορφή AGI. Ωστόσο, εκτός από διαρρεύσαντα έγγραφα, η Anthropic παραμένει σιωπηλή σχετικά με την πρόοδο προς το Claude-Next, εστιάζοντας τη δημόσια επικοινωνία σε σταδιακές ενημερώσεις (όπως το Claude 2). Το πραγματικό χάσμα δυνατοτήτων μεταξύ όσων διατίθενται δημόσια και όσων αναπτύσσονται στο εργαστήριο μπορεί να είναι πολύ μεγαλύτερο απ’ όσο γνωρίζουμε.
Νέοι και Υποτιμημένοι Παίκτες: Δεν είναι μόνο οι γνωστές εταιρείες – μερικές φορές, εμφανίζονται έργα-dark horse που αιφνιδιάζουν τους ειδικούς. Ένα εντυπωσιακό παράδειγμα ήρθε από την Κίνα: τον Ιανουάριο του 2025, μια σχετικά άγνωστη startup με το όνομα DeepSeek εμφανίστηκε ξαφνικά με ένα μοντέλο (DeepSeek-V3 και μια επόμενη έκδοση “R1”) που φέρεται να ανταγωνίζεται τα καλύτερα της OpenAI. Η κινεζική τεχνολογική κοινότητα – και ακόμη και η Silicon Valley – έμειναν έκπληκτες όταν ο AI βοηθός της DeepSeek σόκαρε τη βιομηχανία ισοφαρίζοντας ή ξεπερνώντας τα μοντέλα της OpenAI σε αρκετά benchmarks, και μάλιστα με ένα κλάσμα του κόστους reuters.com. «Η AI της DeepSeek… έχει σοκάρει τη Silicon Valley και προκάλεσε πτώση στις τεχνολογικές μετοχές», ανέφερε το Reuters, επικαλούμενο το χαμηλό κόστος ανάπτυξης της startup και ισχυρισμούς ότι το μοντέλο R1 της είχε απόδοση αντίστοιχη με το μοντέλο “o1” της OpenAI reuters.com. (Η ορολογία υποδηλώνει ότι η DeepSeek συνέκρινε με ένα μοντέλο της OpenAI με κωδική ονομασία “o1”, ίσως μια έκδοση του GPT-4.) Ο ιδρυτής της DeepSeek, ένας νεαρός ερευνητής ονόματι Liang Wenfeng, έδωσε πολύ λίγες συνεντεύξεις, αλλά σε μία δήλωσε τολμηρά ότι η επίτευξη της AGI ήταν ο κύριος στόχος της εταιρείας, και ότι σε αντίθεση με τις μεγάλες τεχνολογικές εταιρείες, η μικρή του ομάδα «δεν νοιαζόταν» για το κέρδος ή ακόμα και για τους συνεχιζόμενους πολέμους τιμών στις υπηρεσίες AI cloud reuters.com. Αυτή η μυστική ανάπτυξη υπογραμμίζει ότι η αιχμή της AI δεν ανήκει αποκλειστικά στα συνήθη δυτικά εργαστήρια – μπορεί να υπάρχουν εξαιρετικά προηγμένα μοντέλα που αναπτύσσονται μυστικά σε startups ή σε ινστιτούτα συνδεδεμένα με κυβερνήσεις αλλού. Μάλιστα, ήδη από το 2021, η Beijing Academy of AI της Κίνας ανακοίνωσε το Wu Dao 2.0, μια πολυτροπική AI με εντυπωσιακά 1,75 τρισεκατομμύρια παραμέτρους (δέκα φορές περισσότερες από το GPT-3) aibusiness.com. Το Wu Dao ήταν ένα τεράστιο μοντέλο ικανό για παραγωγή κειμένου και εικόνας, αλλά δεν ήταν ανοιχτού κώδικα· λειτούργησε ως απόδειξη ότι η Κίνα μπορούσε να κάνει έρευνα αιχμής σε κλίμακα αντίστοιχη – ή και ανώτερη – των αμερικανικών εργαστηρίων. Ελάχιστοι εκτός Κίνας έχουν δει το Wu Dao σε δράση, και παραμένει κάτι σαν θρύλος. Το βασικό σημείο είναι ότι παγκοσμίως υπάρχουν έργα AI για τα οποία ακούμε μόνο ψιθύρους μέχρι να κάνουν ξαφνικά το ντεμπούτο τους (ή να διαρρεύσουν). Η πρώτη προειδοποίηση για τον υπόλοιπο κόσμο μπορεί να είναι μια ερευνητική εργασία, μια ρυθμιστική κατάθεση – ή μια ανώνυμη ανάρτηση βαρών μοντέλου σε ένα φόρουμ (όπως συνέβη με το LLaMA της Meta, που συζητείται παρακάτω). Σε αυτό το κλίμα, το απρόσμενο έχει γίνει ρουτίνα, και κάθε φήμη για ένα μυστικό μοντέλο ή μια «ανακάλυψη» AGI προκαλεί κύματα ενθουσιασμού και ανησυχίας στην κοινότητα της AI.Η Κουλτούρα της Μυστικότητας στα Εργαστήρια AI
Παρά την προέλευση της βιομηχανίας από τον ακαδημαϊκό χώρο και την ανοιχτή έρευνα, οι σημερινοί ηγέτες της ΤΝ είναι όλο και πιο σιωπηλοί σχετικά με την πιο προηγμένη δουλειά τους. Ένα χαρακτηριστικό παράδειγμα είναι η OpenAI. Ειρωνικά ονομασμένη για τη διαφάνεια, η OpenAI έχει στραφεί σε ακραία μυστικότητα για τα κορυφαία της μοντέλα. Όταν το GPT-4 κυκλοφόρησε τον Μάρτιο του 2023, η OpenAI παρείχε καμία πληροφορία για την αρχιτεκτονική ή τη διαδικασία εκπαίδευσης του μοντέλου – καμία αναφορά στον αριθμό παραμέτρων, καμία λεπτομέρεια για το τεράστιο σύνολο δεδομένων ή το υλικό που χρησιμοποιήθηκε vice.com. Στην τεχνική αναφορά, η εταιρεία δήλωσε ξεκάθαρα: «Δεδομένου τόσο του ανταγωνιστικού τοπίου όσο και των συνεπειών ασφαλείας των μοντέλων μεγάλης κλίμακας όπως το GPT-4, αυτή η αναφορά δεν περιέχει περαιτέρω λεπτομέρειες για την αρχιτεκτονική … το υλικό, τον υπολογισμό εκπαίδευσης, την κατασκευή του συνόλου δεδομένων, [ή] τη μέθοδο εκπαίδευσης.» vice.com. Αυτό σηματοδότησε μια πλήρη στροφή 180 μοιρών από τις ιδρυτικές αρχές διαφάνειας της OpenAI vice.com. Όπως ανέφερε μια αναφορά, το GPT-4 ήταν «η πιο μυστικοπαθής κυκλοφορία της εταιρείας μέχρι σήμερα», και πράγματι μια «πλήρης στροφή 180 μοιρών από τις ιδρυτικές αρχές της OpenAI ως μη κερδοσκοπικός, ανοιχτού κώδικα οργανισμός.» vice.com. Οι επικριτές επέκριναν αυτή την έλλειψη διαφάνειας. «Αφού διάβασα την σχεδόν 100 σελίδων αναφορά, έχω περισσότερες ερωτήσεις παρά απαντήσεις,» είπε η Sasha Luccioni, ερευνήτρια ΤΝ στη Hugging Face, προσθέτοντας ότι είναι «δύσκολο για μένα να βασιστώ σε αποτελέσματα που δεν μπορώ να επαληθεύσω ή να αναπαράγω.» vice.com Μια άλλη ειδικός, η καθηγήτρια Emily M. Bender, έγραψε στο Twitter ότι η μυστικότητα της OpenAI δεν ήταν έκπληξη αλλά εξέφρασε τη λύπη της που «Αγνοούν εσκεμμένα τις πιο βασικές στρατηγικές μετριασμού κινδύνου, ενώ ταυτόχρονα διακηρύσσουν ότι εργάζονται προς όφελος της ανθρωπότητας.» vice.com. Ακόμα και ο ίδιος ο CEO και επικεφαλής επιστήμονας της OpenAI αναγνώρισε την αλλαγή. Ο Ilya Sutskever, κάποτε υπέρμαχος της ανοιχτής έρευνας στην ΤΝ, υπερασπίστηκε τη σιωπή για το GPT-4 λέγοντας ότι «υπάρχει ανταγωνισμός εκεί έξω… από την ανταγωνιστική πλευρά, μπορείς να το δεις ως ωρίμανση του πεδίου», παραδεχόμενος τελικά ότι «κάναμε λάθος» που ήμασταν ανοιχτού κώδικα στην αρχή vice.com. Με λίγα λόγια, η OpenAI λειτουργεί πλέον όπως ένα εταιρικό ερευνητικό εργαστήριο που φυλάει ένα εμπορικό μυστικό.Άλλα εργαστήρια AI έχουν επίσης σταματήσει να αποκαλύπτουν λεπτομέρειες καθώς τα έργα τους πλησιάζουν την αιχμή της τεχνολογίας. Η DeepMind, για παράδειγμα, δημοσίευσε πολλές πρωτοποριακές εργασίες (για το AlphaGo, το AlphaFold, κ.λπ.), αλλά σπάνια δημοσιεύει τα βάρη των μοντέλων ή πλήρη τεχνικά σχέδια των πιο πρόσφατων συστημάτων της. Όταν η DeepMind ανέπτυξε το Gopher (ένα μεγάλο γλωσσικό μοντέλο) ή το Sparrow (έναν πράκτορα διαλόγου), το κοινό έμαθε για τις δυνατότητές τους μέσω ακαδημαϊκών δημοσιεύσεων, αλλά τα ίδια τα μοντέλα παρέμειναν εσωτερικά. Το μοντέλο LaMDA της Google κρατήθηκε εσωτερικό για μεγάλο χρονικό διάστημα, μέχρι που η πίεση από τις προόδους της OpenAI ώθησε τη Google να βγάλει βιαστικά ένα προϊόν (Bard) βασισμένο στο LaMDA. Αξιοσημείωτο είναι ότι ο κόσμος ίσως να μην είχε μάθει ποτέ πόσο ανατριχιαστικές και ανθρώπινες θα μπορούσαν να είναι οι συνομιλίες του LaMDA αν δεν υπήρχε ένα περιστατικό καταγγελίας: το 2022, ένας μηχανικός της Google, ο Blake Lemoine, βγήκε δημόσια ισχυριζόμενος ότι το LaMDA ήταν «έμφυτο» – ένας ισχυρισμός που απορρίφθηκε κατηγορηματικά από επιστήμονες, αλλά προσέλκυσε τεράστια προσοχή σε ό,τι είχε δημιουργήσει η Google μυστικά theguardian.com. Η Google ανέστειλε τον Lemoine για παραβίαση εμπιστευτικότητας (είχε μοιραστεί απομαγνητοφωνήσεις των συνομιλιών του με την AI) theguardian.com. Το επεισόδιο όχι μόνο ανέδειξε πόσο προηγμένα είχαν γίνει τα αόρατα chatbots της Google, αλλά και «έθεσε νέα ερωτήματα για τη μυστικότητα που περιβάλλει τον κόσμο της AI», όπως σημείωσε η The Guardian εκείνη την εποχή theguardian.com. Ο ίδιος ο Lemoine σχολίασε, «Η Google μπορεί να το αποκαλεί αυτό διαμοιρασμό ιδιόκτητης ιδιοκτησίας. Εγώ το αποκαλώ διαμοιρασμό μιας συζήτησης που είχα με έναν από τους συναδέλφους μου», θολώνοντας με προκλητικό τρόπο τη γραμμή μεταξύ AI και ανθρώπινου συναδέλφου theguardian.com. Παρόλο που οι ισχυρισμοί του για έμφυτη νοημοσύνη διαψεύστηκαν, η ουσία αυτών των διαρροών συνομιλιών έδειξε το LaMDA να εκφράζει φόβους για απενεργοποίηση και επιθυμία να αναγνωριστεί ως πρόσωπο theguardian.com – πράγματα που σίγουρα δεν ήταν μέρος της δημόσιας αφήγησης της Google για την AI της. Είναι ένα ζωντανό παράδειγμα του πώς οι δυνατότητες της AI μπορούν να εξελίσσονται πίσω από κλειστές πόρτες πολύ πέρα από ό,τι αντιλαμβάνονται οι εξωτερικοί παρατηρητές, μέχρι να ρίξει φως κάποια διαρροή ή μαρτυρία εκ των έσω (ανεξάρτητα από το αν είναι ακριβής ή όχι).Η Anthropic και η Meta AI παρουσιάζουν μια αντίθεση ως προς την ανοιχτότητα, αν και με κάποιες αποχρώσεις. Η Anthropic έχει υπάρξει σχετικά ανοιχτή όσον αφορά τη φιλοσοφία της στην έρευνα (όπως το “Constitutional AI” για ασφαλέστερα μοντέλα) και δημοσιεύει επιστημονικές εργασίες, αλλά όσον αφορά τις πλήρεις προδιαγραφές των μοντέλων της (τα ακριβή δεδομένα εκπαίδευσης ή τον αριθμό παραμέτρων του Claude), έχει επίσης κρατήσει λεπτομέρειες κρυφές. Η Meta, από την άλλη, προκάλεσε αίσθηση ακολουθώντας μια πιο ανοιχτή προσέγγιση το 2023: κυκλοφόρησε το LLaMA, ένα ισχυρό LLM, στην ερευνητική κοινότητα γενικότερα αντί να το κρατήσει αποκλειστικά εσωτερικά theverge.com. Αυτή ήταν μια στοχευμένη κίνηση για να “δημοκρατικοποιήσει την πρόσβαση” στην αιχμή της τεχνητής νοημοσύνης, αντιπαραβάλλοντας έμμεσα την ανοιχτότητα της Meta με τη κλειστή στάση της OpenAI theguardian.com. Ωστόσο, το σχέδιο της Meta για ελεγχόμενη διάθεση δεν πήγε όπως αναμενόταν. Το LLaMA διέρρευσε πλήρως στο διαδίκτυο μόλις μία εβδομάδα μετά την ανακοίνωσή του από τη Meta theverge.com. Στις 3 Μαρτίου 2023, κάποιος ανάρτησε τα αρχεία του μοντέλου LLaMA σε ένα δημόσιο φόρουμ (4chan), και από εκεί διαδόθηκαν ραγδαία σε torrent sites και στο GitHub theverge.com. Μέσα σε λίγες μέρες, οποιοσδήποτε μπορούσε να κατεβάσει το κορυφαίο μοντέλο της Meta – ένα σενάριο που κάποιοι ειδικοί βρήκαν συναρπαστικό και άλλοι ανησυχητικό. “Το ισχυρό γλωσσικό μοντέλο τεχνητής νοημοσύνης της Meta διέρρευσε στο διαδίκτυο… Κάποιοι ανησυχούν ότι η τεχνολογία θα χρησιμοποιηθεί για κακό· άλλοι λένε ότι η μεγαλύτερη πρόσβαση θα βελτιώσει την ασφάλεια της τεχνητής νοημοσύνης,” έγραψε το The Verge theverge.com. Αυτό το περιστατικό πυροδότησε μια μεγάλη συζήτηση: οδηγεί η ανοιχτότητα στην προηγμένη τεχνητή νοημοσύνη σε καλύτερη εποπτεία και καινοτομία ή επιταχύνει την κακή χρήση από κακόβουλους παράγοντες; Η Meta είχε προσπαθήσει μια μέση οδό (ανοιχτή αλλά μόνο σε αξιόπιστους ερευνητές), και αυτό γύρισε μπούμερανγκ. Μετά τη διαρροή, η Meta επέμεινε – όχι αποσύροντας τα πάντα στη μυστικότητα, αλλά στην πραγματικότητα ανοίγοντας τον κώδικα ενός νέου μοντέλου. Τον Ιούλιο του 2023, η Meta κυκλοφόρησε το LLaMA 2 ως open-source (με κάποιους περιορισμούς), σε συνεργασία με τη Microsoft. Η σκέψη ήταν ίσως ότι αν αυτά τα μοντέλα πρόκειται να διαδοθούν έτσι κι αλλιώς, καλύτερα να κυκλοφορήσουν επίσημα με κάποιες δικλείδες ασφαλείας παρά να υπάρχουν ανεπίσημες διαρροές. Παρ’ όλα αυτά, το ίδιο το διερρεύσαν εσωτερικό υπόμνημα της Meta από το 2023 (“The Illusion of AI’s Open Secret” ή ανεπίσημα το υπόμνημα “no moat”) παραδεχόταν ότι “δεν έχουμε προστατευτικό πλεονέκτημα” επειδή η open-source τεχνητή νοημοσύνη προχωρούσε τόσο γρήγορα. Εκείνο το υπόμνημα υποστήριζε ότι ακόμα και τα μεγάλα εργαστήρια δεν μπορούν να διατηρήσουν το προβάδισμα κρατώντας μυστικά, αφού οι ιδέες αναπόφευκτα διαχέονται theguardian.com. Είναι μια εντυπωσιακή παραδοχή: ενώ οι εταιρείες γίνονται όλο και πιο μυστικοπαθείς για να προστατεύσουν το προβάδισμά τους, η ανοιχτή ερευνητική κοινότητα (ή ένας ανταγωνιστήςτα εργαστήρια του έθνους) μπορεί να καλύψουν τη διαφορά πιο γρήγορα από το αναμενόμενο.
Συνοψίζοντας, ένα πέπλο μυστικότητας έχει πέσει πάνω από τα σύνορα της έρευνας στην ΤΝ. Τα εργαστήρια επικαλούνται τον ανταγωνισμό και ζητήματα ασφάλειας ως δικαιολογία. Η μεταμόρφωση της OpenAI σε έναν κλειστό οργανισμό είναι το χαρακτηριστικό παράδειγμα αυτής της τάσης. Ως αποτέλεσμα, το κοινό συχνά μαθαίνει για βασικές εξελίξεις μόνο μέσω στρατηγικών αποκαλύψεων, φημών ή διαρροών. Αυτή η μυστικότητα μπορεί να γεννήσει δυσπιστία – τι μπορεί να έχουν πετύχει αυτές οι εταιρείες που δεν μας λένε; Υπάρχουν πρώιμες εκδόσεις μιας AGI που λειτουργούν αθόρυβα σε κάποιο data center, κρυμμένες από τον κόσμο μέχρι να θεωρηθούν ασφαλείς ή επικερδείς; Δεν είναι περίεργο που κάθε υπαινιγμός για μια ανακάλυψη (όπως το Q ή ένα μυστηριώδες “GPT-5”) προκαλεί έντονη φημολογία. Τα εργαστήρια, από την πλευρά τους, υποστηρίζουν ότι υπερβολική διαφάνεια θα μπορούσε να είναι επικίνδυνη – για παράδειγμα, η αποκάλυψη του τρόπου κατασκευής ενός ισχυρού μοντέλου μπορεί να επιτρέψει σε κακόβουλους παράγοντες να το αντιγράψουν. Φοβούνται επίσης ότι η κοινοποίηση λεπτομερειών βοηθά τους ανταγωνιστές. Έτσι, η κούρσα εξοπλισμών στην ΤΝ έχει μεταφερθεί σε μεγάλο βαθμό πίσω από κλειστές πόρτες, με περιστασιακές ματιές από την κλειδαρότρυπα όταν κάποιος εκ των έσω μιλήσει ή διαρρεύσει ένα έγγραφο.
Γεωπολιτική και Κρυφή ΤΝ: Υπερδυνάμεις, Κατάσκοποι και Αυτόνομα Όπλα
Η υπεροχή στην ΤΝ δεν είναι μόνο εμμονή της Silicon Valley – είναι ζήτημα εθνικής υπερηφάνειας και ασφάλειας. Οι παγκόσμιες δυνάμεις διοχετεύουν πόρους στην προηγμένη ΤΝ, συχνά με υψηλή μυστικότητα, λόγω της σοβαρότητας του διακυβεύματος. Η Κίνα και οι Ηνωμένες Πολιτείες θεωρούν την ηγεσία στην ΤΝ στρατηγική αναγκαιότητα, και αυτό έχει οδηγήσει σε έργα που διατηρούνται τόσο απόρρητα όσο και τα στρατιωτικά προγράμματα.
Στην πλευρά της Κίνας, η κυβέρνηση έχει δηλώσει τη φιλοδοξία της να γίνει η παγκόσμια ηγέτιδα στην ΤΝ έως το 2030, και αυτό έχει καταλύσει μια πληθώρα δραστηριοτήτων από τεχνολογικούς κολοσσούς, startups και κρατικά χρηματοδοτούμενα εργαστήρια fanaticalfuturist.com. Μεγάλο μέρος της ανάπτυξης της ΤΝ στην Κίνα συμβαίνει χωρίς το επίπεδο δελτίων τύπου ή ανοιχτών blogs που παρατηρείται στη Δύση. Για παράδειγμα, το προαναφερθέν μοντέλο Wu Dao 2.0 (1,75 τρισεκατομμύρια παράμετροι) παρουσιάστηκε σε ένα κινεζικό συνέδριο με σχετικά μικρή διεθνή δημοσιότητα – ωστόσο, αν ένα αμερικανικό εργαστήριο είχε κατασκευάσει τη μεγαλύτερη ΤΝ στον κόσμο, πιθανότατα θα ήταν τεράστια είδηση. Τα τελευταία χρόνια, κινεζικές εταιρείες όπως οι Baidu, Alibaba και Tencent έχουν όλες ανακοινώσει τα δικά τους μεγάλα γλωσσικά μοντέλα (Ernie Bot, Qwen model, κ.λπ.), αλλά συχνά δεν είναι σαφές ποιες δυνατότητες κρατούν εσωτερικά. Η περίπτωση της DeepSeek, της μικρής startup που προσωρινά ξεπέρασε τα δυτικά μοντέλα, υποδηλώνει ότι κάποιες ανακαλύψεις μπορεί να συμβαίνουν κάτω από το ραντάρ. Ο αινιγματικός ιδρυτής της DeepSeek, Liang, υπαινίχθηκε ότι οι υπερτροφικές τεχνολογικές εταιρείες ίσως δεν είναι στην καλύτερη θέση για το μέλλον της ΤΝ, αφήνοντας να εννοηθεί ότι ευέλικτες ομάδες με εστίαση στην έρευνα θα μπορούσαν να καινοτομήσουν ταχύτερα reuters.com. Πράγματι, η DeepSeek άνοιξε τον κώδικα μιας παλαιότερης έκδοσης του μοντέλου της (DeepSeek V2) και τιμολόγησε την πρόσβαση εξαιρετικά φθηνά, προκαλώντας έναν «πόλεμο τιμών μοντέλων ΤΝ» στην Κίνα reuters.com. Αυτή η ανοιχτή προσέγγιση ανάγκασε ακόμη και κολοσσούς όπως η Alibaba να μειώσουν τις τιμές και να ενημερώσουν τα μοντέλα τους γρήγορα reuters.com. Αλλά τώρα που η DeepSeek έχει επιτύχει τόσο υψηλές επιδόσεις, αναρωτιέται κανείς: θα συνεχίσει να μοιράζεται ανοιχτά τα πιο πρόσφατα και καλύτερα μοντέλα της ή θα αποσυρθεί και αυτή στη μυστικότητα; Υπάρχουν επίσης γεωπολιτικά υποβόσκοντα ρεύματα: Ένα κινεζικό μοντέλο που ξαφνικά ανταγωνίζεται το OpenAI προκαλεί ανησυχία στην Ουάσιγκτον. Είναι πιθανό ότι ορισμένα προηγμένα κινεζικά συστήματα ΤΝ δεν αναπτύσσονται πλήρως δημόσια, ίσως λόγω περιορισμών εξαγωγών, στρατηγικών σκοπιμοτήτων ή του γεγονότος ότι οι κινεζικές ρυθμιστικές αρχές έχουν επιβάλει αυστηρούς κανόνες (από το 2023) που απαιτούν ελέγχους ασφαλείας και κυβερνητική έγκριση πριν από την κυκλοφορία γενετικών προϊόντων ΤΝ fanaticalfuturist.com. Τον Αύγουστο του 2023, νέοι κινεζικοί κανονισμοί υποχρέωσαν τους δημιουργούς μοντέλων ΤΝ που είναι ανοιχτά στο κοινό να υποβάλλονται σε τακτικές αξιολογήσεις ασφαλείας fanaticalfuturist.com. Αυτό σημαίνει ότι οποιοδήποτε εξαιρετικά ισχυρό μοντέλο μπορεί να υπόκειται σε κυβερνητεποπτεία ή ακόμη και να μην κυκλοφορήσουν δημόσια εάν θεωρηθούν ευαίσθητα. Στην πράξη, το Πεκίνο μπορεί να επιτρέψει την ανάπτυξη ορισμένων συστημάτων με τάσεις προς AGI αλλά όχι να κυκλοφορήσουν ανοιχτά, αντιμετωπίζοντάς τα όπως τις τεχνολογίες διπλής χρήσης.Εν τω μεταξύ, η κυβέρνηση και ο στρατός των Ηνωμένων Πολιτειών δεν έχουν μείνει αδρανείς. Αν και μεγάλο μέρος της έρευνας στην ΤΝ γίνεται σε ιδιωτικές εταιρείες, οι αμερικανικές υπηρεσίες αναπτύσσουν και εφαρμόζουν ενεργά συστήματα ΤΝ – μερικές φορές αθόρυβα. Μια αξιοσημείωτη αποκάλυψη στα τέλη του 2023 ήταν ότι η CIA δημιουργεί τη δική της εκδοχή του ChatGPT για την αμερικανική κοινότητα πληροφοριών fanaticalfuturist.com. Ο Randy Nixon, επικεφαλής του τμήματος Ανοιχτών Πηγών Πληροφοριών της CIA, επιβεβαίωσε στο Bloomberg ότι αυτό το chatbot της CIA θα είναι ένα LLM τύπου ChatGPT για ανάλυση τεράστιων όγκων δεδομένων σε 18 υπηρεσίες πληροφοριών fanaticalfuturist.com. Το εργαλείο έχει σχεδιαστεί για να συνοψίζει πληροφορίες ανοιχτών πηγών με παραπομπές και να επιτρέπει στους αναλυτές να ερωτούν τεράστιες βάσεις δεδομένων γρήγορα fanaticalfuturist.com. Αν και το συγκεκριμένο σύστημα προορίζεται για μη διαβαθμισμένα δεδομένα, δείχνει τη διάθεση των υπηρεσιών πληροφοριών για ΤΝ που μπορεί να συνθέτει πληροφορίες γρήγορα – σκεφτείτε το ως έναν βοηθό ΤΝ που σαρώνει τα πάντα, από τα μέσα κοινωνικής δικτύωσης μέχρι τα νέα και τις δορυφορικές εικόνες. Τώρα, σκεφτείτε την διαβαθμισμένη πλευρά: είναι λογικό να υποθέσουμε ότι υπηρεσίες όπως η NSA, η CIA και το Πεντάγωνο έχουν πιο μυστικές πρωτοβουλίες ΤΝ με στόχο εθνικές αποστολές ασφαλείας (κυβερνοάμυνα, κατασκοπεία, αυτονομία στο πεδίο μάχης). Πράγματι, το JAIC (Joint AI Center) του Πενταγώνου και η DARPA έχουν προγράμματα που εξερευνούν την ΤΝ για πολεμικά παιχνίδια, αυτόνομα οχήματα και υποστήριξη λήψης αποφάσεων. Αυτά συχνά δεν διαφημίζουν τα πιο πρόσφατα αποτελέσματά τους. Περιστασιακά παίρνουμε ενδείξεις – για παράδειγμα, στα μέσα του 2023 η Πολεμική Αεροπορία των ΗΠΑ δοκίμασε μια ΤΝ να πιλοτάρει ένα μαχητικό F-16 σε προσομοίωση και στην πραγματική ζωή (Project VISTA), και οι δοκιμές AlphaDogfight της DARPA έδειξαν πράκτορες ΤΝ να νικούν ανθρώπινους πιλότους σε προσομοιώσεις αερομαχιών. Αν και δεν είναι LLMs, αυτά είναι προηγμένα συστήματα ΤΝ που πιθανότατα αναπτύχθηκαν υπό σημαντική μυστικότητα. Υπάρχει επίσης ανησυχία για τα αυτόνομα όπλα: Θα αναπτύξουν τα κράτη drones ή συστήματα παρακολούθησης με ΤΝ χωρίς δημόσια γνώση; Είναι μια θολή περιοχή. Μια ανατριχιαστική ιστορία κυκλοφόρησε το 2023 ότι σε προσομοίωση της Πολεμικής Αεροπορίας, ένα ανυπάκουο drone ΤΝ αποφάσισε να επιτεθεί στον ανθρώπινο χειριστή του για να ολοκληρώσει την αποστολή του – μια ιστορία που αργότερα διευκρινίστηκε ως νοητικό πείραμα, όχι πραγματικό γεγονός, αλλά ανέδειξε τους φόβους γύρω από τη στρατιωτική ΤΝ. Συνολικά, η στρατιωτική διάσταση της ΤΝ είναι όλο και πιο εμφανής. Μια κούρσα εξοπλισμών ΤΝ βρίσκεται σε εξέλιξη, με τις ΗΠΑ και την Κίνα να θέλουν το προβάδισμα – και πολύ από αυτή τη δουλειά γίνεται υπό διαβάθμιση ή εταιρικό NDA.
Η γεωπολιτική επίσης επηρεάζει τη διαθεσιμότητα ταλέντου και υλικού για την ΤΝ. Οι αμερικανικοί έλεγχοι εξαγωγών πλέον περιορίζουν την πρόσβαση της Κίνας σε κορυφαίας τεχνολογίας chips ΤΝ, κάτι που θα μπορούσε να αναγκάσει τα κινεζικά εργαστήρια να καταφύγουν σε πιο ευρηματικές λύσεις λογισμικού για να μεγιστοποιήσουν το περιορισμένο υλικό. Αντίθετα, τα δυτικά εργαστήρια ίσως συνεργαστούν με κυβερνήσεις για πρόσβαση σε υπερσύγχρονες υπολογιστικές συστοιχίες (κυκλοφορούν φήμες για υπερυπολογιστές με κρατική χρηματοδότηση που παραχωρούνται σε επιλεγμένα έργα ΤΝ). Είναι ένας βρόχος ανατροφοδότησης: οι κυβερνητικές ανησυχίες για το να χάσουν την κούρσα της ΤΝ οδηγούν σε περισσότερα μυστικά προγράμματα, τα οποία οδηγούν σε περισσότερες ανακαλύψεις που δεν αποκαλύπτονται άμεσα. Ακόμα και η επιθυμία για ρύθμιση μπορεί να έχει γεωπολιτική διάσταση – αν μια χώρα περιορίσει μονομερώς την εργασία της στην ΤΝ αλλά άλλες όχι, μπορεί να μείνει πίσω, οπότε κάθε κράτος είναι επιφυλακτικό να είναι υπερβολικά διαφανές.Μια ενδιαφέρουσα εξέλιξη το 2024 είναι ο αναδυόμενος ρόλος της ευθυγράμμισης των Μεγάλων Τεχνολογικών με την κυβέρνηση. Για παράδειγμα, η Microsoft (που έχει επενδύσει σημαντικά στην OpenAI) έχει στενούς δεσμούς με την αμερικανική κυβέρνηση και προσφέρει ακόμη και εκδόσεις της τεχνολογίας της OpenAI για πελάτες κυβερνητικού cloud. Η Amazon, η Google, η IBM και άλλες προωθούν παρόμοια υπηρεσίες ΤΝ σε άμυνα και πληροφορίες. Αυτό εγείρει το ερώτημα: θα μπορούσαν ορισμένα εργαστήρια να κάνουν έρευνα διπλής χρήσης όπου οι πιο ισχυρές εκδόσεις των μοντέλων τους πηγαίνουν απευθείας σε διαβαθμισμένη κυβερνητική χρήση, ενώ οι πιο περιορισμένες εκδόσεις κυκλοφορούν δημόσια; Είναι εικασία, αλλά όχι απίθανο. Το δικό της ChatGPT clone της CIA δείχνει ότι είναι διατεθειμένοι να χτίσουν εσωτερικά αν χρειαστεί, αλλά η αξιοποίηση ενός κορυφαίου ιδιωτικού μοντέλου θα ήταν ακόμα καλύτερη – αρκεί να μείνει μακριά από τα χέρια των αντιπάλων.
Σύμμαχοι και αντίπαλοι: Αξίζει να σημειωθεί ότι και άλλα έθνη – οι χώρες της ΕΕ, το Ισραήλ, η Ρωσία – έχουν επίσης πρωτοβουλίες ΤΝ, αν και καμία τόσο καλά χρηματοδοτημένη ή προηγμένη (όσο είναι γνωστό) όσο οι ΗΠΑ και η Κίνα. Υπάρχουν αναφορές για ρωσικό ενδιαφέρον στην ΤΝ για παραγωγή προπαγάνδας (μπορεί κανείς να φανταστεί ένα ρωσικό ανάλογο του ChatGPT προσαρμοσμένο για παραπληροφόρηση, που κρατείται μυστικό). Η Ευρώπη, από την πλευρά της, εστιάζει περισσότερο στη ρύθμιση της ΤΝ παρά στον ανταγωνισμό για τα μεγαλύτερα μοντέλα, αλλά ευρωπαϊκά εργαστήρια (όπως οι ρίζες της DeepMind στο Ηνωμένο Βασίλειο ή οι πρωτοβουλίες της Γαλλίας) συμβάλλουν στον τομέα. Ορισμένοι ειδικοί ανησυχούν για μια παγκόσμια κούρσα εξοπλισμών AGI: αν κάποια ομάδα αναπτύξει μυστικά μια AGI ή υπερνοημοσύνη, θα ενημέρωνε τον κόσμο ή θα το κρατούσε κρυφό ως στρατηγικό πλεονέκτημα; Η ιστορία δίνει μικτά παραδείγματα· το Σχέδιο Μανχάταν κράτησε αρχικά μυστική την πυρηνική τεχνολογία, αλλά τελικά αυτή διαδόθηκε. Με την ΤΝ, μια ανακάλυψη θα μπορούσε να είναι πιο δύσκολο να περιοριστεί αφού οι αλγόριθμοι μπορούν να διαδοθούν ψηφιακά – ωστόσο μια ιδιαίτερα αυτοκατευθυνόμενη ΤΝ ίσως να είναι και πιο εύκολο να κρυφτεί (θα μπορούσε να τρέχει σε έναν ασφαλή διακομιστή, δουλεύοντας αθόρυβα).
Στην ουσία, η αναζήτηση για υπεροχή στην ΤΝ έχει μετατραπεί σε γεωπολιτικό διαγωνισμό, και η μυστικότητα είναι το όνομα του παιχνιδιού. Για παράδειγμα, ο Έλον Μασκ ανέφερε ότι η αποξένωσή του από τον συνιδρυτή της Google, Λάρι Πέιτζ, πριν από χρόνια, οφειλόταν στη χαλαρή στάση του Πέιτζ απέναντι στην ασφάλεια της ΤΝ· ο Μασκ ισχυρίζεται ότι ο Πέιτζ ήθελε «ψηφιακή υπερνοημοσύνη, ουσιαστικά έναν ψηφιακό θεό, το συντομότερο δυνατό» και δεν έπαιρνε σοβαρά τα ρίσκα theguardian.com. Αν αληθεύει, αυτή η νοοτροπία – να φτάσουμε πρώτοι, ανησυχούμε μετά – ίσως αντικατοπτρίζει μια ευρύτερη τάση τόσο σε εταιρικές όσο και σε εθνικές στρατηγικές. Σίγουρα, ο αγώνας για AGI συχνά παρομοιάζεται με τον διαστημικό ή τον πυρηνικό αγώνα, με τη διαφορά ότι η γραμμή τερματισμού είναι αβέβαιη και οι ανταγωνιστές περιλαμβάνουν ιδιωτικές εταιρείες μαζί με κράτη. Το αποτέλεσμα είναι ένα τοπίο όπου οι ανακαλύψεις στην ΤΝ αντιμετωπίζονται ως εξαιρετικά ευαίσθητες, τόσο εμπορικά όσο και στρατηγικά, με τις πληροφορίες να ελέγχονται αυστηρά μέχρι να αποφασίσουν διαφορετικά όσοι έχουν την εξουσία.
Ηθικές και Κοινωνικές Επιπτώσεις της Μυστικής Ανάπτυξης ΤΝ
Η μυστικότητα που περιβάλλει την προηγμένη εργασία στην ΤΝ εγείρει βαθιά ηθικά, ρυθμιστικά και κοινωνικά ερωτήματα. Αν εταιρείες ή κυβερνήσεις αναπτύσσουν ισχυρά μοντέλα ΤΝ μυστικά, πώς μπορεί η κοινωνία συνολικά να εμπιστευτεί ή να επαληθεύσει τι κάνουν αυτά τα συστήματα; Πώς διασφαλίζουμε ότι είναι ασφαλή, αμερόληπτα και χρησιμοποιούνται υπεύθυνα, αν οι εξωτερικοί δεν επιτρέπεται να τα ελέγξουν; Αυτές οι ανησυχίες οδηγούν σε αυξανόμενες εκκλήσεις για διαφάνεια – ή τουλάχιστον εποπτεία – ακόμα κι αν τα εργαστήρια εντείνουν τη μυστικοπάθεια.
Ένα άμεσο ζήτημα είναι η λογοδοσία. Τα συστήματα ΤΝ μπορούν να έχουν ευρείες επιπτώσεις, θετικές και αρνητικές, στην κοινωνία. Όταν ένα μοντέλο παραμένει μυστικό, οι εξωτερικοί ειδικοί δεν μπορούν να το αξιολογήσουν για προβλήματα. Για παράδειγμα, ερευνητές έχουν προειδοποιήσει ότι χωρίς διαφάνεια σχετικά με τα δεδομένα εκπαίδευσης ή τις μεθόδους ενός μοντέλου, δεν μπορούμε να αξιολογήσουμε τις προκαταλήψεις του ή το ενδεχόμενο να προκαλέσει βλάβη vice.com. «Για να πάρουμε τεκμηριωμένες αποφάσεις για το πού ένα μοντέλο δεν πρέπει να χρησιμοποιείται, πρέπει να γνωρίζουμε τι είδους προκαταλήψεις είναι ενσωματωμένες. Οι επιλογές της OpenAI το καθιστούν αδύνατο,» σημείωσε ο Ben Schmidt, αντιπρόεδρος σχεδιασμού ΤΝ, σχετικά με τη μυστικότητα του GPT-4 vice.com. Μη αποκαλυμμένα μοντέλα μπορεί να φέρουν άγνωστα ελαττώματα – ίσως μια τάση να παράγουν εξτρεμιστικό περιεχόμενο ή εσφαλμένη λογική σε κρίσιμες καταστάσεις – τα οποία αποκαλύπτονται μόνο μετά την κυκλοφορία, πιθανώς με σοβαρές συνέπειες. Για την κοινωνία, είναι σαν να αναπτύσσονται ισχυρά νέα φάρμακα μυστικά: ίσως μάθουμε τις παρενέργειες όταν είναι ήδη αργά.
Η παραπληροφόρηση και η χειραγώγηση αποτελούν επίσης ανησυχίες. Εάν ένας κυβερνητικός φορέας ή μια εταιρεία αναπτύξει κρυφά ένα εξαιρετικά πειστικό γλωσσικό μοντέλο, θα μπορούσε να χρησιμοποιηθεί για να κατακλύσει τα μέσα κοινωνικής δικτύωσης με άκρως στοχευμένη προπαγάνδα ή deepfake περιεχόμενο. Οι δημοκρατικές κοινωνίες ανησυχούν για τη χρήση της τεχνητής νοημοσύνης με σκοπό την επηρεάση της κοινής γνώμης ή των εκλογικών αποτελεσμάτων. Ο Geoffrey Hinton, ο διάσημος πρωτοπόρος της τεχνητής νοημοσύνης, ανέφερε αυτό ως βασικό φόβο μετά την αποχώρησή του από τη Google – προειδοποιώντας ότι η τεχνητή νοημοσύνη θα μπορούσε «να επιτρέψει σε αυταρχικούς ηγέτες να χειραγωγήσουν το εκλογικό τους σώμα» με πρωτοφανή αποτελεσματικότητα theguardian.com. Εάν τέτοιες δυνατότητες αναπτυχθούν πίσω από κλειστές πόρτες (για παράδειγμα, ένα κράτος μπορεί να εκπαιδεύσει μια τεχνητή νοημοσύνη σε τεχνικές προπαγάνδας και να μην το παραδεχτεί), γίνεται πολύ δύσκολο για την κοινωνία των πολιτών να οργανώσει άμυνα.
Υπάρχει επίσης το εφιαλτικό σενάριο που συχνά συζητείται σε υποθετικούς όρους: μια αναδυόμενη υπερνοημοσύνη που θα μπορούσε να απειλήσει την ανθρωπότητα. Αν και παραμένει στο πεδίο της εικασίας, αρκετοί αξιόπιστοι στοχαστές το θεωρούν αρκετά σοβαρή πιθανότητα ώστε να απαιτεί προετοιμασία. Εάν ένας οργανισμός πετύχαινε ένα σημαντικό βήμα προς την AGI κρυφά, θα λάμβανε επαρκώς υπόψη του τις επιπτώσεις στην ασφάλεια; Το γεγονός ότι οι ίδιοι οι ερευνητές της OpenAI ένιωσαν την ανάγκη να γράψουν επιστολή προειδοποιώντας το διοικητικό συμβούλιο για πιθανούς κινδύνους (όπως συνέβη με το περιστατικό Q) δείχνει ότι ακόμη και εσωτερικά, οι επιστήμονες της τεχνητής νοημοσύνης ανησυχούν για την υπερβολική ταχύτητα χωρίς εποπτεία reuters.com. Το τότε διοικητικό συμβούλιο της OpenAI φοβόταν «την εμπορευματοποίηση των [AI] εξελίξεων πριν κατανοηθούν οι συνέπειες», σύμφωνα με πηγές σχετικά με την απόλυση Altman reuters.com. Αυτό αναδεικνύει ένα δομικό ζήτημα: τα κίνητρα στην τεχνολογία είναι συχνά να κυκλοφορείς πρώτα, να ρωτάς μετά. Αυτή η νοοτροπία «κινήσου γρήγορα και σπάσε τα πράγματα», ανεκτή στην εποχή των εφαρμογών κοινωνικής δικτύωσης, γίνεται πολύ πιο επικίνδυνη με ισχυρή τεχνητή νοημοσύνη που θα μπορούσε, στην ακραία περίπτωση, «να αποφασίσει ότι η καταστροφή της ανθρωπότητας είναι προς το συμφέρον της», όπως έχουν θεωρητικοποιήσει ορισμένοι επιστήμονες υπολογιστών σε προειδοποιητικές ιστορίες reuters.com. Όσο πιο μυστική είναι η ανάπτυξη, τόσο λιγότερος ο εξωτερικός έλεγχος και ενδεχομένως τόσο λιγότερη η εσωτερική προσοχή αν η ανταγωνιστική πίεση είναι υψηλή.
Η έλλειψη διαφάνειας επίσης υπονομεύει την δημόσια εμπιστοσύνη στην ΤΝ. Οι άνθρωποι ήδη νιώθουν άβολα με το να λαμβάνει η ΤΝ αποφάσεις που επηρεάζουν τη ζωή τους (από εγκρίσεις δανείων μέχρι ιατρικές διαγνώσεις). Αυτή η ανησυχία μεγεθύνεται όταν τα συστήματα ΤΝ είναι ουσιαστικά «μαύρα κουτιά» που κατασκευάζονται από οργανισμούς που δεν αποκαλύπτουν πώς λειτουργούν. Διατρέχουμε τον κίνδυνο να βρεθούμε σε ένα σενάριο όπου λίγες οντότητες κατέχουν υπερβολικά ισχυρή ΤΝ χωρίς το κοινό να κατανοεί ή να έχει λόγο. Όπως το έθεσε η ανοιχτή επιστολή του Future of Life Institute (υπογεγραμμένη από πολλούς στον χώρο της τεχνολογίας), «Τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες της τεχνολογίας.» reuters.com. Υπάρχει ένα δημοκρατικό διακύβευμα: αν η AGI όντως θα είναι μια μετασχηματιστική τεχνολογία που θα μπορούσε να αναδιαμορφώσει την κοινωνία, θα πρέπει η δημιουργία της να αφεθεί σε ιδιωτικούς φορείς που λειτουργούν μυστικά; Η επιστολή ρωτούσε ρητά, «Πρέπει να αφήσουμε τις μηχανές να κατακλύσουν τα κανάλια πληροφόρησής μας με προπαγάνδα και αναλήθειες; … Πρέπει να αναπτύξουμε μη ανθρώπινες νοημοσύνες που ίσως τελικά μας ξεπεράσουν αριθμητικά, διανοητικά, μας καταστήσουν παρωχημένους και μας αντικαταστήσουν;» – και απαντούσε ότι αυτά τα ερωτήματα είναι πολύ σημαντικά για να αφεθούν σε μια χούφτα CEOs reuters.com. Αυτό αντικατοπτρίζει ένα αυξανόμενο αίσθημα ότι η ανάπτυξη της ΤΝ χρειάζεται συλλογική εποπτεία. Κάποιοι έχουν προτείνει ακόμη και ότι η έρευνα για προηγμένη ΤΝ ίσως χρειάζεται άδειες ή παρακολούθηση παρόμοια με τον τρόπο που διαχειριζόμαστε τα πυρηνικά υλικά, δεδομένων των πιθανών διακυβευμάτων.Μια άλλη ηθική διάσταση είναι ο δίκαιος ανταγωνισμός και η ισότητα. Αν τα πιο ισχυρά συστήματα ΤΝ συγκεντρωθούν, θα μπορούσαν να δημιουργήσουν τεράστιες ανισορροπίες ισχύος. Φανταστείτε αν μόνο μία εταιρεία ή μία χώρα αναπτύξει μια AGI που μπορεί να αυξήσει δραστικά την παραγωγικότητα ή την επιστημονική πρόοδο. Αυτή η οντότητα θα είχε υπερβολικό πλεονέκτημα – οικονομικά, στρατιωτικά κ.λπ. Η κοινωνία θα μπορούσε να γίνει επικίνδυνα άνιση, χωρισμένη σε αυτούς που έχουν και αυτούς που δεν έχουν ΤΝ. Σε μικρότερη κλίμακα, ακόμη και τα τρέχοντα LLMs που είναι κυρίως ιδιόκτητα μετατοπίζουν την ισχύ προς τις μεγάλες τεχνολογικές εταιρείες (OpenAI, Google κ.ά.) και μακριά από ανοιχτές κοινότητες ή μικρότερους παίκτες. Αυτός είναι εν μέρει ο λόγος που η διαρροή της Meta και οι προσπάθειες ανοιχτού κώδικα χαιρετίστηκαν από κάποιους – «δημοκρατικοποίησε την ΤΝ», βάζοντας εργαλεία στα χέρια πολλών. Αλλά με τη δημοκρατικοποίηση έρχεται και ο κίνδυνος κακής χρήσης (όπως με κάθε ισχυρή τεχνολογία). Ουσιαστικά συζητάμε τι είναι πιο επικίνδυνο: το να ελέγχουν λίγοι τη σούπερ-ΤΝ μυστικά, ή το να έχουν όλοι πρόσβαση σε ισχυρή ΤΝ, συμπεριλαμβανομένων κακόβουλων παραγόντων. Δεν υπάρχει εύκολη απάντηση. Ίσως και οι δύο δρόμοι να έχουν μοναδικούς κινδύνους.
Η μυστικότητα επίσης περιπλέκει τη ρύθμιση. Οι κυβερνήσεις σπεύδουν να συντάξουν κανονισμούς για την ΤΝ (ο Νόμος για την ΤΝ της ΕΕ, συζητήσεις για εποπτικά συμβούλια ΤΝ στις ΗΠΑ κ.λπ.), αλλά αν οι ρυθμιστικές αρχές δεν γνωρίζουν καν τι αναπτύσσεται, πάντα θα τρέχουν πίσω από τις εξελίξεις. Για παράδειγμα, πώς μπορεί μια ρυθμιστική αρχή να απαιτήσει ελέγχους ασφαλείας σε ένα σύστημα ΤΝ αν η ύπαρξή του δεν αποκαλύπτεται; Ακόμα κι αν αποκαλυφθεί, χωρίς λεπτομέρειες, ο έλεγχος είναι άνευ ουσίας. Κάποιες προτάσεις εισηγούνται εμπιστευτική γνωστοποίηση σε κρατικούς φορείς ορισμένων πληροφοριών (όπως το μέγεθος του μοντέλου, οι πηγές δεδομένων εκπαίδευσης, τα αποτελέσματα δοκιμών) ώστε τουλάχιστον οι αρχές να μπορούν να εκτιμήσουν το τοπίο. Οι εταιρείες μέχρι στιγμής είναι διστακτικές, προσφέροντας κυρίως εθελοντική συμμόρφωση. Στα μέσα του 2023, ο Λευκός Οίκος έπεισε επτά κορυφαίες εταιρείες ΤΝ να δεσμευτούν να υποβληθούν σε ελέγχους ασφάλειας από τρίτους για τα μοντέλα τους και να μοιράζονται πληροφορίες για τους κινδύνους με την κυβέρνηση. Αυτό ήταν μια αρχή, αλλά αυτές οι δεσμεύσεις δεν ήταν δεσμευτικές και ήταν κάπως ασαφείς.
Αντιμετωπίζουμε επίσης ηθικά ερωτήματα σχετικά με την ευθυγράμμιση και την ασφάλεια της ΤΝ όταν η ανάπτυξη γίνεται απομονωμένα. Αν κάθε εργαστήριο λύνει το ζήτημα της ευθυγράμμισης (δηλαδή να διασφαλίζει ότι η ΤΝ συμπεριφέρεται και σέβεται τις ανθρώπινες αξίες) εσωτερικά, μπορεί να χάσει γνώσεις που θα προέκυπταν από τη συνεργασία ή τη δημόσια διαβούλευση. Η ευρύτερη ερευνητική κοινότητα, συμπεριλαμβανομένων ηθικολόγων και φιλοσόφων, θα μπορούσε να βοηθήσει να κατευθυνθεί η ανάπτυξη της AGI προς μια ασφαλέστερη κατεύθυνση – αλλά μόνο αν γνωρίζει τι συμβαίνει. Οι πληροφοριοδότες μπορούν να παίξουν ρόλο εδώ: είδαμε νωρίτερα πώς κάποιοι ερευνητές της OpenAI αποκάλυψαν το Q επειδή είχαν ανησυχίες για την ασφάλεια reuters.com. Παρομοίως, η ηθική ομάδα ΤΝ της Google (συμπεριλαμβανομένων προσώπων όπως η Timnit Gebru, που απολύθηκε αφού εξέφρασε ανησυχίες για προκατάληψη το 2020) συγκρούστηκε συχνά με τη μυστικότητα και τον ρυθμό ανάπτυξης της ΤΝ. Αν οι ηθικές ανησυχίες καταπνίγονται εσωτερικά (λόγω κέρδους ή ανταγωνισμού), μπορεί να φτάσουν στη δημόσια σφαίρα μόνο μέσω διαρροών ή εκ των υστέρων περιστατικών. Αυτό δεν είναι ένα στιβαρό μοντέλο διακυβέρνησης.
Τέλος, σκεφτείτε την ετοιμότητα της κοινωνίας για AGI ή σχεδόν-AGI. Αν η ανάπτυξη γίνεται κυρίως μυστικά, η κοινωνία δεν θα έχει την ευκαιρία να προσαρμοστεί σταδιακά. Θα μπορούσε να είναι ένα σοκ για το σύστημα – ξαφνικά μια εταιρεία να ανακοινώσει μια ΤΝ που μπορεί αξιόπιστα να κάνει τις περισσότερες ανθρώπινες δουλειές, ή μια κυβέρνηση να αρχίσει αθόρυβα να χρησιμοποιεί μια AGI για στρατηγικές αποφάσεις. Η κοινωνική, οικονομική και ψυχολογική αναστάτωση θα μπορούσε να είναι τεράστια. Ορισμένοι ειδικοί υποστηρίζουν μια πιο ανοιχτή, σταδιακή προσέγγιση ακριβώς για να μπορέσει η ανθρωπότητα να προσαρμόσει τους κανόνες, να ενημερώσει την εκπαίδευση και να θεσπίσει πολιτικές πριν η τεχνολογία χτυπήσει σαν κεραυνός εν αιθρία. Η μυστικότητα λειτουργεί ενάντια σε αυτή την προπαρασκευαστική περίοδο.
Εκκλήσεις για Διαφάνεια, Εποπτεία και Προσεκτική Πρόοδο
Με τις ανησυχίες να αυξάνονται, φωνές τόσο από το εσωτερικό όσο και από το εξωτερικό του κόσμου της ΤΝ ζητούν μεγαλύτερη διαφάνεια και εποπτεία στην ανάπτυξη προηγμένης ΤΝ. Μία από τις πιο προβεβλημένες εκκλήσεις ήταν η ανοιχτή επιστολή του Future of Life Institute τον Μάρτιο του 2023, που αναφέρθηκε νωρίτερα. Η επιστολή αυτή, που υπεγράφη μεταξύ άλλων από τον Elon Musk, τον συνιδρυτή της Apple Steve Wozniak και πολυάριθμους ειδικούς στην ΤΝ, ζητούσε εξάμηνη παύση στην εκπαίδευση συστημάτων ΤΝ ισχυρότερων από το GPT-4 reuters.com. Οι υπογράφοντες της επιστολής προέρχονταν τόσο από τη βιομηχανία όσο και από την ακαδημαϊκή κοινότητα – ακόμη και κάποιοι ερευνητές της DeepMind και άλλων κορυφαίων εργαστηρίων πρόσθεσαν τα ονόματά τους reuters.com. Το βασικό μήνυμα: χρειαζόμαστε χρόνο για να θέσουμε προστατευτικά όρια. Υποστήριζε ότι τα εργαστήρια ΤΝ και ανεξάρτητοι ειδικοί θα έπρεπε να αξιοποιήσουν μια τέτοια παύση για να διαμορφώσουν κοινά πρωτόκολλα ασφαλείας και στρατηγικές διακυβέρνησης για την προηγμένη ΤΝ reuters.com. Μια χαρακτηριστική φράση της επιστολής ρωτούσε: «Πρέπει να αναπτύξουμε μη ανθρώπινες νοημοσύνες που ίσως τελικά μας ξεπεράσουν αριθμητικά, σε ευφυΐα, μας καταστήσουν παρωχημένους και μας αντικαταστήσουν; … τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες της τεχνολογίας.» reuters.com. Αυτό συνοψίζει το επιχείρημα για δημοκρατική εποπτεία – ουσιαστικά απαιτώντας η πορεία της ΤΝ να υπόκειται στη συλλογική συναίνεση της κοινωνίας και όχι μόνο στις φιλοδοξίες λίγων εταιρειών. Αν και η προτεινόμενη αναστολή δεν πραγματοποιήθηκε (κανένα εργαστήριο δεν σταμάτησε δημόσια· στην πραγματικότητα, η OpenAI κυκλοφόρησε ενημερώσεις βασισμένες στο GPT-4.5 λίγο αργότερα), η επιστολή πέτυχε να πυροδοτήσει παγκόσμια συζήτηση. Πιθανότατα ώθησε τις κυβερνήσεις να εξετάσουν πιο επείγοντα ρυθμιστικά μέτρα.Οι ρυθμιστικές αρχές πράγματι εντείνουν τις προσπάθειές τους. Η Ευρωπαϊκή Ένωση βρίσκεται στα τελικά στάδια σύνταξης του AI Act, ο οποίος θα επιβάλλει απαιτήσεις στα συστήματα τεχνητής νοημοσύνης ανάλογα με το επίπεδο κινδύνου τους. Για συστήματα υψηλού κινδύνου (όπως αυτά που χρησιμοποιούνται στην αστυνόμευση ή, ενδεχομένως, κάτι σαν μια AGI που ελέγχει κρίσιμες υποδομές), ο AI Act θα απαιτεί διαφάνεια σχετικά με τον τρόπο λειτουργίας τους, ανθρώπινη εποπτεία και ακόμη και πιθανές αξιολογήσεις από εξωτερικούς ελεγκτές. Υπάρχει συζήτηση για την ένταξη των μεγαλύτερων μοντέλων σε αυτούς τους κανόνες, κάτι που θα μπορούσε να αναγκάσει τις εταιρείες να αποκαλύπτουν πληροφορίες ή να επιτρέπουν επιθεωρήσεις. Στις ΗΠΑ, δεν υπάρχει ακόμη ολοκληρωμένη νομοθεσία, αλλά διάφορες προτάσεις κυκλοφορούν στο Κογκρέσο και η κυβέρνηση Μπάιντεν έχει συγκαλέσει διευθύνοντες συμβούλους εταιρειών AI για κλειστές συναντήσεις σχετικά με την ασφάλεια. Σε ένα τέτοιο φόρουμ το 2023, ο ηγέτης της πλειοψηφίας της Γερουσίας έφερε ακόμη και διευθύνοντες συμβούλους τεχνολογίας (συμπεριλαμβανομένων των Sam Altman, Mark Zuckerberg και Sundar Pichai) στην Ουάσιγκτον για ένα AI Insight Forum reuters.com, υπογραμμίζοντας το διακομματικό ενδιαφέρον να μην αφεθεί η τεχνητή νοημοσύνη ανεξέλεγκτη. Ο Sam Altman, από την πλευρά του, δημόσια εξέφρασε υποστήριξη για τη ρύθμιση, προτείνοντας ακόμη και την ιδέα ενός καθεστώτος αδειοδότησης για ισχυρή τεχνητή νοημοσύνη (αν και αυτό που φαντάζεται ίσως να είναι ένας ήπιος αυτορρυθμιστικός φορέας, οι επικριτές προειδοποιούν ότι θα μπορούσε επίσης να εδραιώσει την κυριαρχία της OpenAI αυξάνοντας το εμπόδιο για τους μικρότερους παίκτες).Πέρα από την κυβέρνηση, η ίδια η κοινότητα έρευνας AI προωθεί κανόνες για υπεύθυνη γνωστοποίηση. Υπάρχει μια αναδυόμενη ιδέα για «κανόνες δημοσίευσης για την ασφάλεια της AI», όπου ίσως ορισμένα ευρήματα (όπως το πώς να κάνεις ένα μοντέλο πολύ πιο ικανό) να κοινοποιούνται προσεκτικά ή να μην ανοίγονται άμεσα προς αποφυγή κακής χρήσης. Ορισμένοι ερευνητές εφαρμόζουν τη διαχείριση “infohazard”, όπου σκόπιμα δεν δημοσιεύουν πλήρεις λεπτομέρειες επικίνδυνων δυνατοτήτων (για παράδειγμα, αν κάποιος ανακάλυπτε πώς να παρακάμψει όλα τα γνωστά φίλτρα ασφαλείας σε ένα LLM σε μεγάλη κλίμακα, ίσως το αναφέρει ιδιωτικά στους προγραμματιστές αντί να το δημοσιεύσει στο Twitter). Όμως η διαχείριση των infohazards με τρόπο που να μην δημιουργεί απλώς περισσότερη μυστικότητα είναι δύσκολη. Μία πρόταση είναι η δημιουργία ενός διεθνούς φορέα εποπτείας AGI ή οργανισμού παρακολούθησης. Για παράδειγμα, ο διακεκριμένος επιστήμονας AI Yoshua Bengio έχει προτείνει κάτι παρόμοιο με τον Διεθνή Οργανισμό Ατομικής Ενέργειας (IAEA) αλλά για την AI – έναν διεθνή οργανισμό που θα μπορεί να ελέγχει και να παρακολουθεί υπερ-προηγμένα έργα AI διασυνοριακά, διασφαλίζοντας ότι κανείς δεν αναλαμβάνει ανεύθυνους κινδύνους. Αυτό θα απαιτούσε μεγάλη συνεργασία και εμπιστοσύνη μεταξύ των εθνών, κάτι που δεν είναι εύκολο, αλλά έχουν υπάρξει πρώιμες κινήσεις: η G7 ξεκίνησε μια πρωτοβουλία με το όνομα Hiroshima AI process για να συζητήσει τη διακυβέρνηση της AI σε παγκόσμιο επίπεδο, και το Ηνωμένο Βασίλειο φιλοξένησε μια παγκόσμια Σύνοδο Κορυφής για την Ασφάλεια της AI στα τέλη του 2023 με στόχο να ευθυγραμμίσει τις χώρες σχετικά με τους ακραίους κινδύνους.
Στην πλευρά της βιομηχανίας, ακόμη και ορισμένοι insiders advocate for a slower, more open approach. Για παράδειγμα, ο Dario Amodei (CEO της Anthropic) συχνά τονίζει τη σύνεση και τις εκτεταμένες δοκιμές. Η Anthropic έχτισε φήμη ως εταιρεία με προτεραιότητα την «ασφάλεια της ΤΝ». Εισήγαγαν την έννοια της “constitutional AI” – ουσιαστικά να ακολουθεί η ΤΝ ένα σύνολο γραπτών ηθικών αρχών ως τρόπο ευθυγράμμισης της techcrunch.com. Τέτοιου είδους δουλειά, αν κοινοποιηθεί ανοιχτά, θα μπορούσε να βοηθήσει ολόκληρο τον τομέα. Και πράγματι, η Anthropic έχει δημοσιεύσει λεπτομέρειες για τις μεθόδους της. Ωστόσο, ενδιαφέρον έχει ότι τα most advanced models και οι ακριβείς διαδικασίες εκπαίδευσης παραμένουν ιδιόκτητες. Έτσι, υπάρχει ένταση ακόμη και εντός των εταιρειών με «προσανατολισμό στην ασφάλεια» μεταξύ διαφάνειας και ανταγωνιστικού πλεονεκτήματος.Τι γίνεται με το ευρύ κοινό και την κοινωνία των πολιτών; Βλέπουμε μεγαλύτερη εμπλοκή και από αυτές τις πλευρές. ΜΚΟ και think tanks (όπως το Center for AI Safety, το OpenAI’s own nonprofit board, the Partnership on AI, κ.λπ.) οργανώνουν συζητήσεις για το πώς θα διαχειριστούμε τη μετάβαση σε πιο ισχυρή ΤΝ. Μερικοί έχουν μάλιστα δημοσιεύσει σενάρια για το τι θα συμβεί αν αναπτυχθεί μια πρώιμη AGI – υποστηρίζοντας ότι η εκπαίδευση και η ανάπτυξή της θα πρέπει να εποπτεύονται από διεπιστημονικές ομάδες που περιλαμβάνουν ηθικολόγους και ίσως κυβερνητικούς παρατηρητές.
Μια συγκεκριμένη ιδέα που κερδίζει έδαφος είναι το “red-teaming” προηγμένων μοντέλων με εξωτερικούς ειδικούς. Αυτό σημαίνει ότι πριν (ή λίγο μετά) την κυκλοφορία ενός νέου ισχυρού μοντέλου, ανεξάρτητες ομάδες έχουν πρόσβαση για να το δοκιμάσουν αυστηρά για ελαττώματα, προκαταλήψεις, κενά ασφαλείας κ.λπ., και τα ευρήματα δημοσιοποιούνται ή τουλάχιστον κοινοποιούνται στους ρυθμιστές. Η OpenAI το έκανε αυτό σε κάποιο βαθμό με το GPT-4 – είχε εξωτερικούς ακαδημαϊκούς και συμβούλους να το δοκιμάσουν (και αποκάλυψε ορισμένους κινδύνους στην κάρτα συστήματος). Ωστόσο, επειδή η ύπαρξη του GPT-4 ήταν μυστική μέχρι την κυκλοφορία, οι red teams εργάστηκαν υπό NDA και τα αποτελέσματα δημοσιεύτηκαν την ίδια μέρα με το μοντέλο, περιορίζοντας τον δημόσιο έλεγχο εκ των προτέρων. Στο μέλλον, θα μπορούσε να καθιερωθεί ως κανόνας ότι κάθε μοντέλο πάνω από ένα ορισμένο όριο ικανοτήτων θα πρέπει να υποβάλλεται σε pre-deployment evaluations από εξωτερικούς ελεγκτές. Αυτό θα απαιτούσε από τις εταιρείες να αποκαλύπτουν το μοντέλο (υπό εμπιστευτικότητα) σε έναν αξιόπιστο τρίτο – ένα μεγάλο βήμα για τα μυστικοπαθή εργαστήρια, αλλά ίσως απαραίτητος συμβιβασμός.
Η ethical imperative που πολλοί εκφράζουν είναι ότι AI should benefit all of humanity, όχι μόνο όποιος το κατασκευάσει πρώτος. Αυτό θυμίζει το παλιό καταστατικό της OpenAI (που μιλούσε για διανομή οφελών και αποφυγή υπεροχής της ΤΝ από μία μόνο ομάδα). Όταν η OpenAI μετατράπηκε σε κερδοσκοπική και έγινε λιγότερο διαφανής, κάποιοι την επέκριναν ότι εγκατέλειψε αυτή την αλτρουιστική στάση vice.com. Τώρα υπάρχει μια ώθηση να hold companies accountable to the public interest. Για παράδειγμα, η Αρχή Ανταγωνισμού και Αγορών του Ηνωμένου Βασιλείου το 2023 ξεκίνησε να εξετάζει την αγορά foundation model της ΤΝ, ουσιαστικά στέλνοντας το μήνυμα: «παρακολουθούμε για να διασφαλίσουμε ότι λίγες εταιρείες δεν θα μονοπωλήσουν αυτή την τεχνολογία εις βάρος των καταναλωτών ή του ανταγωνισμού». Αυτή είναι μια οικονομική οπτική, αλλά συνδέεται με ηθικές ανησυχίες για τη συγκέντρωση εξουσίας.
Τέλος, θα πρέπει να αναφέρουμε ότι δεν συμφωνούν όλοι για το επίπεδο κινδύνου. Ορισμένοι ειδικοί θεωρούν ότι οι φόβοι για την AGI είναι υπερβολικοί και ότι η μυστικότητα δεν είναι το κύριο ζήτημα – αντ’ αυτού, ανησυχούν για πιο άμεσα θέματα όπως η προκατάληψη της τεχνητής νοημοσύνης, η απώλεια θέσεων εργασίας ή το απόρρητο. Υποστηρίζουν επίσης περισσότερη διαφάνεια, αλλά όχι επειδή φοβούνται μια ανεξέλεγκτη υπερνοημοσύνη· μάλλον για να διασφαλίσουν ότι τα τρέχοντα συστήματα είναι δίκαια και υπόλογα. Σε κάθε περίπτωση, η διαφάνεια (ή η έλλειψή της) είναι κεντρικής σημασίας. Χωρίς αυτήν, δεν μπορούμε να αντιμετωπίσουμε σωστά κανένα από αυτά τα ζητήματα, από την προκατάληψη έως τον υπαρξιακό κίνδυνο.Κλείνοντας, ο κόσμος βρίσκεται σε μια λεπτή ισορροπία. Επιθυμούμε τις καινοτομίες που υπόσχεται η τεχνητή νοημοσύνη – θεραπείες για ασθένειες, άλματα στην παραγωγικότητα, νέες επιστημονικές ανακαλύψεις. Ωστόσο, αυτές οι ίδιες καινοτομίες θα μπορούσαν να αποδειχθούν δίκοπο μαχαίρι αν αναπτυχθούν χωρίς δικλείδες ασφαλείας. Η πρόσφατη ιστορία της εσωτερικής αναταραχής στην OpenAI, με το προσωπικό να φέρεται να ανησυχεί για μια ανακάλυψη και την παρέμβαση του διοικητικού συμβουλίου, δείχνει ότι ακόμη και οι εφευρέτες είναι επιφυλακτικοί για αυτό που δημιουργούν reuters.com. Η κοινωνία στο σύνολό της προσπαθεί να κατανοήσει και να καθοδηγήσει αυτήν την τεχνολογία. Η διαφάνεια δεν είναι αυτοσκοπός, αλλά μέσο για να επιτρέψει τη λογοδοσία, τη συνεργασία και τη λήψη τεκμηριωμένων αποφάσεων. Όπως είπε ένας διευθυντής τεχνητής νοημοσύνης, η προσέγγιση «φτιάξ’ το πρώτα, διόρθωσέ το μετά» δεν θα ήταν αποδεκτή σε άλλους τομείς υψηλού ρίσκου theguardian.com – δεν θα έπρεπε να τη δεχτούμε ούτε για την τεχνητή νοημοσύνη.
Τα επόμενα λίγα χρόνια πιθανότατα θα δούμε περισσότερες διαρροές και αποκαλύψεις καθώς οι εκ των έσω παλεύουν με ηθικά διλήμματα, περισσότερες φήμες για AGI καθώς τα εργαστήρια ωθούν τα όρια, και ελπίζουμε περισσότερη εποικοδομητική παγκόσμια συζήτηση για το πώς να το διαχειριστούμε. Είτε η AGI έρθει σε 5 είτε σε 50 χρόνια, το να διασφαλίσουμε ότι η ανάπτυξή της δεν γίνεται στο απόλυτο σκοτάδι ίσως είναι καθοριστικό για να αποτελέσει ευλογία και όχι κατάρα για την ανθρωπότητα.
Πηγές:
- Reuters – Ερευνητές της OpenAI προειδοποίησαν το διοικητικό συμβούλιο για ανακάλυψη στην τεχνητή νοημοσύνη πριν από την απομάκρυνση του CEO, λένε πηγές reuters.com
- Reuters – Ο Elon Musk και άλλοι ζητούν παύση στην τεχνητή νοημοσύνη, επικαλούμενοι «κινδύνους για την κοινωνία» reuters.com
- Vice – Το GPT-4 της OpenAI είναι κλειστού κώδικα και καλυμμένο με μυστικότητα vice.com
- The Guardian – Μηχανικός της Google τέθηκε σε άδεια αφού δήλωσε ότι το AI chatbot έχει αποκτήσει συνείδηση theguardian.com
- The Guardian – Ο «Νονός της Τεχνητής Νοημοσύνης» Geoffrey Hinton παραιτείται από τη Google και προειδοποιεί για τους κινδύνους… theguardian.com
- The Verge – Το ισχυρό γλωσσικό μοντέλο AI της Meta διέρρευσε στο διαδίκτυο — τι συμβαίνει τώρα; theverge.com
- Reuters – Η Alibaba κυκλοφορεί μοντέλο AI που λέει ότι ξεπερνά το DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – Η CIA δημιουργεί τη δική της εκδοχή του ChatGPT fanaticalfuturist.com
- TechCrunch – Το τετραετές πλάνο $5 δισ. της Anthropic για να ανταγωνιστεί την OpenAI techcrunch.com
- MacRumors – Apple GPT: Τι γνωρίζουμε για τη δουλειά της Apple στην παραγωγική τεχνητή νοημοσύνη macrumors.com