Τα βιολογικά όπλα που κατασκευάζονται από την τεχνητή νοημοσύνη ανησυχούν τις ΗΠΑ

ΑΚΟΛΟΥΘΗΣΤΕ ΜΑΣ

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

Δημοσίευμα του Bloomberg αναφέρεται στις απειλές της τεχνητής νοημοσύνης που αντιπροσωπεύονται από εύκολες συνταγές για την κατασκευή βιολογικών όπλων, που έχουν γίνει νέο μέλημα για την παγκόσμια ασφάλεια.

Χαρακτηριστικά σημειώνεται ότι ο ερευνητής Rocco Casagrande είχε μπει στο χώρο του Λευκού Οίκου κουβαλώντας ένα μαύρο κουτί ελαφρώς μεγαλύτερο από έναν κύβο Rubik μέσα ήταν δώδεκα δοκιμαστικοί σωλήνες που περιείχαν συστατικά που, αν αναμειγνύονταν σωστά, είχαν τη δυνατότητα να προκαλέσουν την επόμενη πανδημία.

Το δημοσίευμα σημειώνει ότι ο Casagrande, βιοχημικός και πρώην επιθεωρητής όπλων των Ηνωμένων Εθνών, δεν σχεδίαζε να δημιουργήσει βιολογικό όπλο σε ένα δωμάτιο γεμάτο με αξιωματούχους του Λευκού Οίκου, αλλά ήταν εκεί για να τους ενημερώσει για τους πολλούς τρόπους με τους οποίους η τεχνητή νοημοσύνη μπορεί να διδάξει στους χρήστες πώς να δημιουργούν επικίνδυνους ιούς.

Εργαλεία όπως το GBT chat θα μπορούσαν να βοηθήσουν τους τρομοκράτες να εντοπίσουν ισχυρούς βιολογικούς παράγοντες και να εξασφαλίσουν τα υλικά για να τους φτιάξουν βιολογικά όπλα, αναφέρθηκε την άνοιξη του 2023 ενώπιον των αξιωματούχων του Λευκού Οίκου.

«Βρισκόμαστε στα πρόθυρα όπου η τεχνητή νοημοσύνη να βοηθήσει όχι μόνο στην αναδημιουργία υπαρχόντων παθογόνων, αλλά και στη δημιουργία πιο επικίνδυνων παθογόνων».

Τα νέα για τη συνάντηση διαδόθηκαν στα δίκτυα ασφαλείας της χώρας και αξιωματούχοι από τα Υπουργεία Άμυνας, Πολιτείας, Εσωτερικής Ασφάλειας και Εμπορίου, μεταξύ άλλων, προσπάθησαν να κάνουν παρουσιάσεις για τον εαυτό τους όλη εκείνη την άνοιξη και το καλοκαίρι, ανέφερε ο ιστότοπος.

Ο Casagrande συνεργαζόταν με μια startup τεχνητής νοημοσύνης που ήθελε να διαδώσει αυτούς τους κινδύνους.

Άτομα που είναι εξοικειωμένα με το θέμα, που ζήτησαν ανωνυμία για να συζητήσουν ευαίσθητα ζητήματα εθνικής ασφάλειας, είπαν ότι οι συναντήσεις χρησίμευσαν ως σήμα αφύπνισης για το πόσο απροετοίμαστες είναι οι Ηνωμένες Πολιτείες για το τι μπορεί να βοηθήσει στη δημιουργία τεχνητής νοημοσύνης.

Αυτή η συνειδητοποίηση θα βοηθήσει τελικά στη διαμόρφωση των ενεργειών που θα λάβει η νέα αμερικανική κυβέρνηση για να προστατεύσει από την απειλή.

Η τεχνητή νοημοσύνη αλλάζει τον κόσμο με σαφείς και ασαφείς τρόπους

Υπάρχουν τακτικές χρήσεις όπως η συνομιλία GPT, η οποία διευκολύνει τους ανθρώπους να βρίσκουν συνταγές που περιέχουν συστατικά στο ερμάριό τους. Υπάρχουν επικίνδυνες χρήσεις, όπως η αυτοματοποίηση που έχει τη δυνατότητα να εξαλείψει θέσεις εργασίας.

Το έργο του Casagrande έχει δημιουργήσει μια πιο απειλητική ιδέα: ότι η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει στη δημιουργία όπλων μαζικής καταστροφής, όχι του είδους που κατασκευάζουν οι στρατοί σε απομακρυσμένες ερήμους, αλλά όπλων που θα μπορούσαν να κατασκευαστούν σε υπόγειο εργαστήριο ή γυμνάσιο.


Η πρόσφατη ιστορία των βιολογικών όπλων

Ο ιστότοπος ανέφερε ότι η χρήση ασθενειών ως όπλων δεν είναι κάτι νέο, φυσικά, και έγγραφα από τον 18ο αιώνα δείχνουν Βρετανούς αξιωματικούς να συζητούν για τη διάδοση της ευλογιάς μεταξύ των ιθαγενών Αμερικανών μέσω κουβερτών.

Η χρήση χημικών όπλων όπως το αέριο μουστάρδας στον Α’ Παγκόσμιο Πόλεμο οδήγησε στο Πρωτόκολλο της Γενεύης το 1925, το οποίο σχεδιάστηκε για να περιορίσει την ανάπτυξη χημικών και βιολογικών όπλων.

Αυτό ήταν σε μεγάλο βαθμό αναποτελεσματικό.

Στον Β’ Παγκόσμιο Πόλεμο, η Ιαπωνία φέρεται να έριξε μολυσμένους από την πανώλη ψύλλους από αεροπλάνα πάνω από την αγροτική Κίνα.

Στη δεκαετία του 1970, υπήρξε μια άλλη παγκόσμια συνθήκη που απαγόρευε την ανάπτυξη και χρήση βιολογικών όπλων.

 Ωστόσο, αυτή η συμφωνία δεν ήταν εκτελεστή και η κοινότητα των πληροφοριών των ΗΠΑ λέει ότι πολλές χώρες πιθανότατα θα εκτελούσαν τέτοια προγράμματα.

Σύμφωνα με τον ιστότοπο, οι επιστημονικές εξελίξεις τα τελευταία χρόνια απλώς ενίσχυσαν τους τρόπους με τους οποίους χειραγωγείται η βιολογία για να προκαλέσει βλάβη.

Η τροποποίηση των γενετικών κωδικών

Στην πραγματικότητα, υπάρχουν πολλές προκλήσεις που αντιμετωπίζει η τεχνολογία, η πρώτη από τις οποίες είναι η ικανότητα τροποποίησης των γενετικών κωδικών των ζωντανών οργανισμών, που μπορεί να καταστήσει δυνατή, για παράδειγμα, την αναβίωση ενός εξαφανισμένου ιού που σχετίζεται με την ευλογιά.

Σε συνδυασμό με τις προόδους στην υπολογιστική βιολογία και τα «εργαστήρια Clοud» – που επιτρέπουν στους επιστήμονες να προσομοιώνουν πειράματα διαδικτυακά ή να τα διεξάγουν εξ αποστάσεως μέσω λογισμικού που συντονίζεται με ρομπότ – είναι πλέον ευκολότερο για τους κακούς παράγοντες να αναπτύξουν όπλα μαζικής καταστροφής γρήγορα και φθηνά χωρίς πρόσβαση σε παραδοσιακό εργαστηριακή υποδομή.

Εργαλεία όπως η συνομιλία GPT του OpenAI διευκολύνουν την αποκάλυψη πληροφοριών σχετικά με επιβλαβείς ιούς, βακτήρια και άλλους οργανισμούς από ό,τι ήταν παραδοσιακά δυνατό χρησιμοποιώντας υπάρχοντα ερευνητικά εργαλεία.

Ο ιστότοπος συνέχισε ότι ο συνδυασμός αυτών των καινοτομιών -συνθετική βιολογία και τεχνητή νοημοσύνη- μπορεί να μετατραπεί σε εφιάλτη για τις κυβερνήσεις, οι οποίες άργησαν να θέσουν σε εφαρμογή συστήματα εποπτείας.

Το Bloomberg  επικαλέστηκε τον Κέβιν Έσβελτ / Kevin Esvelt, βιολόγο και αναπληρωτή καθηγητή στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης, που είπε ότι καθώς η γενετική τεχνητή νοημοσύνη συνεχίζει να βελτιώνεται, οι άνθρωποι θα μπορούν να τη χρησιμοποιήσουν για να «δημιουργήσουν περισσότερα φρικτά πράγματα», αναφερόμενος σε ιούς και τοξίνες που δεν υπάρχουν επί του παρόντος.

«Σήμερα δεν μπορούμε να αμυνθούμε ενάντια σε αυτά τα πράγματα», πρόσθεσε ο Έσβελτ.

Ο ιστότοπος το απέδειξε αυτό με έρευνα που διεξήχθη από μια startup που υποστηρίζεται από την Amazon, την Alphabet και την Anthropic στο Casagrande πριν από περισσότερο από ένα χρόνο για να δοκιμάσει τις δυνατότητες υπερ-κακών του νέου προγράμματος συνομιλίας Claude.

Όπως διευκρινίζεται ο πρωταρχικός στόχος πίσω από τη δημιουργία του Claude ήταν να γίνουν τα εργαλεία τεχνητής νοημοσύνης πιο ασφαλή και οι ιδρυτές της Anthropic χώρισαν τους δρόμους τους με το OpenAI, τον δημιουργό του GBT Chat, το 2020 λόγω διαφωνιών σχετικά με το πόσο γρήγορα η εταιρεία ωθούσε στην αγορά χωρίς να ενσωματωθούν επαρκείς έλεγχοι και ισορροπίες.

Ο συνιδρυτής της Anthropic, Τζακ Κλαρκ, δήλωσε σε συνέντευξή του ότι ο ίδιος και η ομάδα του πιστεύουν ότι όσο περισσότερα δεδομένα αντλούνται σε προϊόντα τεχνητής νοημοσύνης, θα γίνονται καλύτεροι στο να δίνουν ακριβείς απαντήσεις για δυνητικά επικίνδυνα πράγματα. Ο νέος θεσμός θα επιδιώξει να είναι πιο κοινωνικά υπεύθυνος στα μάτια των ιδρυτών του και θα δοκιμάσει άβολες αλήθειες.

Ο ιστότοπος δήλωσε ότι το Claude , όπως και το GBT Chat, είναι ένα chatbot που τροφοδοτείται από αυτό που ονομάζεται Large Language Model ή LLM, το οποίο  επεξεργάζεται μια τεράστια ποσότητα κειμένου για να δημιουργήσει απίστευτα ανθρώπινες απαντήσεις. Ο Κλαρκ, ο οποίος εργαζόταν στο Bloomberg News, είπε ότι η ομάδα Anthropic ανησυχούσε ιδιαίτερα όταν επρόκειτο για τον τομέα της βιολογίας.

Είχαν υποψίες ότι το Claude και άλλα chatbots μπορεί να είναι σε θέση να εκπαιδεύσουν τους χρήστες πώς να χειρίζονται τη βιολογία για να προκαλέσουν βλάβη.

Η Anthropic δεν είχε την τεχνογνωσία να αξιολογήσει εσωτερικά τις επιστημονικές ικανότητες του Claude.

«Θέλω να επαληθεύσετε τις υποθέσεις μας», λέει ο Κλαρκ είπε στον Casagrande, ο οποίος το 2005 ίδρυσε μια εταιρεία επιστήμης και ασφάλειας που ονομάζεται Gryphon Scientific που έχει συμβόλαια από το Πεντάγωνο με τα Εθνικά Ινστιτούτα Υγείας.

Σημειώνεται ότι Casagrande είναι σύμβουλος ασφαλείας στην Ουάσινγκτον στην αξιολόγηση των βιολογικών κινδύνων.

Η εφευρετικότητα του Claude έχει εκπλήξει ακόμη και τον Casagrande, ο οποίος έχει περάσει δεκαετίες συμβουλεύοντας τις Ηνωμένες Πολιτείες για το πώς να αμυνθούν από όπλα μαζικής καταστροφής και άλλες βιολογικές απειλές, και ανησυχεί για το πόσο εύκολο θα είναι για την τεχνητή νοημοσύνη να δημιουργήσει τέτοια όπλα με εύκολη πρόσβαση σε υλικά .

«Ακόμα κι αν είχατε τις τέλειες οδηγίες για την κατασκευή μιας πυρηνικής βόμβας, θα κόστιζε δεκάδες εκατομμύρια – αν όχι εκατοντάδες εκατομμύρια – για να ακολουθήσετε αυτές τις οδηγίες», είπε «Δυστυχώς, αυτό δεν συμβαίνει με τη βιολογία.  Για παράδειγμα, μια νέα γενιά εύχρηστων μηχανών επιτρέπει πλέον στους ανθρώπους να εκτυπώνουν DNA χωρίς μεγάλη επίβλεψη. Η τεχνητή νοημοσύνη μπορεί να βοηθήσει τους αρχάριους να μάθουν πώς να τη χρησιμοποιούν.

Ανησυχία για την ανάπτυξης της βιολογίας από τα έθνη – κράτη

Τους μήνες που ακολούθησαν τις περσινές ενημερώσεις του Casagrande, η κυβέρνηση Μπάιντεν έχει αποκτήσει ολοένα και μεγαλύτερη εμμονή με τις βιολογικές απειλές από την τεχνητή νοημοσύνη.

Ο Μπάιντεν, ο αρχηγός του προσωπικού του, η σύμβουλος εθνικής ασφάλειας και η αντιπρόεδρος Καμάλα Χάρις έχουν όλοι ένα προσωπικό ενδιαφέρον, σύμφωνα με άτομα που γνωρίζουν το θέμα. Ο Λευκός Οίκος αρνήθηκε να σχολιάσει.

Σύμφωνα με τον ιστότοπο, ο Ντρου Έντε, αναπληρωτής καθηγητής βιομηχανικής στο Πανεπιστήμιο του Στάνφορντ, δήλωσε: «Ανησυχώ για το πώς τα έθνη-κράτη μπορούν να οπλίσουν τη βιολογία, όχι τα άτομα» μέσω της πρόσβασης σε chatbots.

ΒΑΛΚΑΝΙΚΟ ΠΕΡΙΣΚΟΠΙΟ

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

ΔΗΜΟΦΙΛΗ