Ουάσιγκτων.– Έρευνα για λογαριασμό του υπουργείου Εξωτερικών των ΗΠΑ παρουσιάζει μιάν ανησυχητική εικόνα των «καταστροφικών» κινδύνων που εγκυμονεί η ταχέως εξελισσόμενη τεχνητή νοημοσύνη. Τα ευρήματα εβασίσθησαν σε συνεντεύξεις με περισσότερους από 200 ανθρώπους για πάνω από έναν χρόνο, συμπεριλαμβανομένων στελεχών κορυφαίων εταιρειών τεχνητής νοημοσύνης, ερευνητών κυβερνοασφαλείας, εμπειρογνωμόνων σε θέματα όπλων μαζικής καταστροφής και αξιωματούχων εθνικής ασφαλείας. Η έκθεσις, η οποία εδημοσιεύθη αυτή την εβδομάδα από την επιθεώρηση Gladstone AI, δηλώνει ευθέως ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στην χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφανίσεως για το ανθρώπινο είδος.»
Ένας αξιωματούχος του Σταίητ Ντηπάρτμεντ επιβεβαίωσε ότι η έρευνα επραγματοποιήθη για λογαριασμό του υπουργείου, το οποίο αξιολογεί συνεχώς τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο του να προστατεύσει τα συμφέροντα των ΗΠΑ στο εσωτερικό και στο εξωτερικό. Ωστόσο, ο αξιωματούχος τόνισε ότι η έκθεσις δεν απηχεί τις απόψεις της αμερικανικής κυβερνήσεως.
Η τεχνητή νοημοσύνη «θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες» δήλωσε την Τρίτη στο CNN ο Τζέρεμυ Χάρρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI. Προσθέτει όμως: «Αλλά θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους, τους οποίους πρέπει να γνωρίζουμε. Ένας αυξανόμενος όγκος στοιχείων –συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο– υποδηλώνει ότι πάνω από ένα ορισμένο όριο δυνατοτήτων η τεχνητή νοημοσύνη θα μπορούσε δυνητικά να γίνει ανεξέλεγκτη».
Οι ερευνητές προειδοποιούν για δύο βασικούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη.
Πρώτον, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια.»
«Η άνοδος της τεχνητής νοημοσύνης και της AGI [τεχνητή γενική νοημοσύνη] έχει την δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την ανάπτυξη των πυρηνικών όπλων» ανέφερε η έκθεσις, προσθέτοντας ότι υπάρχει ο κίνδυνος μιάς «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης, συγκρούσεων και θανατηφόρων ατυχημάτων κλίμακος μαζικής καταστροφής.
Η έκθεσις του Gladstone AI ζητεί νέα μέτρα για την αντιμετώπιση αυτής της απειλής, συμπεριλαμβανομένης της δημιουργίας ενός νέου οργανισμού τεχνητής νοημοσύνης, της επιβολής ρυθμιστικών εγγυήσεων «εκτάκτου ανάγκης» και περιορισμών στην ισχύ των υπολογιστών που μπορούν να χρησιμοποιηθούν για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. «Υπάρχει σαφής και επείγουσα ανάγκη παρεμβάσεως της αμερικανικής κυβερνήσεως» αναφέρεται, εν κατακλείδι, στην έκθεση.