Τετάρτη 13 Μαρτίου 2024

Τεχνητή Νοημοσύνη: «Μπορεί να καταστρέψει το ανθρώπινο είδος» – Τα ανησυχητικά ευρήματα έρευνας του Στέιτ Ντιπάρτμεντ

Σοβαρούς κινδύνους που μπορεί να φτάσουν μέχρι και στην εξάλειψη του ανθρώπινου είδους κρύβει η αλματώδης ανάπτυξη της Τεχνητής Νοημοσύνης, σύμφωνα με νέα έρευνα που έγινε για λογαριασμό του Στέιτ Ντιπάρτμεντ.

Η έρευνα αφορούσε τα αμερικανικά συμφέροντα και την εθνική ασφάλεια της χώρας. Βασίστηκε σε συνεντεύξεις με περισσότερους από 200 ανθρώπους για πάνω από ένα χρόνο. Ανάμεσά τους ήταν κορυφαία στελέχη εταιρειών τεχνητής νοημοσύνης, ερευνητές κυβερνοασφάλειας, εμπειρογνώμονες σε θέματα όπλων μαζικής καταστροφής και αξιωματούχοι εθνικής ασφάλειας της κυβέρνησης.


Η έκθεση, δημοσιεύθηκε αυτή την εβδομάδα από την Gladstone AI, και καταλήγει στο ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».

Αξιωματούχος του Στέιτ Ντιπάρτμεντ επιβεβαίωσε ότι η υπηρεσία του ανέθεσε την εν λόγω έρευνα, στο μέτρο που αξιολογεί συνεχώς τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο της προστασίας των εθνικών συμφερόντων στο εσωτερικό και στο εξωτερικό. Ο ίδιος αξιωματούχος έσπευσε να προσθέσει ότι τα ευρήματα της έκθεσης δεν αποτελούν ούτε απηχούν τις απόψεις της αμερικανικής κυβέρνησης.

«Η τεχνητή νοημοσύνη είναι ήδη μια τεχνολογία που μετασχηματίζει οικονομικά. Θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες», δήλωσε ο Τζέρεμι Χάρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI.

«Ωστόσο, θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους … Ένας αυξανόμενος όγκος στοιχείων –συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο– υποδηλώνει ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν δυνητικά να γίνουν ανεξέλεγκτες», πρόσθεσε.


Οι ερευνητές προειδοποιούν ωστόσο για δύο βασικούς κινδύνους: Πρώτον, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».

«Η άνοδος της τεχνητής νοημοσύνης και της AGI (τεχνητής γενικής νοημοσύνης) έχει την δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν τη δημιουργία των πυρηνικών όπλων», αναφέρει η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου