Η τεχνητή νοημοσύνη (ΤΝ) είναι, αναμφισβήτητα, ένα χρήσιμο εργαλείο για την διεκπεραίωση βαρετών ή επικίνδυνων εργασιών, την ανακάλυψη νέων φαρμάκων, την επίλυση σύνθετων προβλημάτων και τη βελτίωση των καθημερινών υπηρεσιών.
Ωστόσο, υπάρχουν ανησυχίες για τους κινδύνους που μπορεί να προκύψουν από την κακή χρήση ή την ανεξέλεγκτη ανάπτυξή της. Ορισμένοι ανησυχούν ότι η ΤΝ μπορεί να οδηγήσει σε ανεργία λόγω της αυτοματοποίησης ή να χρησιμοποιηθεί για κακόβουλους σκοπούς, όπως η παρακολούθηση ή η δημιουργία επιθέσεων.
Μάλιστα, τώρα, ερευνητές από το Πανεπιστήμιο Fudan επισημαίνουν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να αναπαραχθούν, χωρίς ανθρώπινη βοήθεια και φοβούνται ότι η ΤΝ θα μπορούσε να πολλαπλασιαστεί ανεξέλεγκτα.
Η τεχνητή νοημοσύνη πέρασε μια «κόκκινη γραμμή»
Σύμφωνα με τη μελέτη τους που δημοσιεύθηκε στη βάση δεδομένων arXiv, σε 10 δοκιμές, τα δύο μοντέλα δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να έχει ήδη την ικανότητα να γίνει κακόβουλη.
Ο όρος «κακόβουλη τεχνητή νοημοσύνη» (rogue AI) περιγράφει τα συστήματα ΤΝ που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα προς τα ανθρώπινα συμφέροντα. Πολλοί ειδικοί θεωρούν την κακόβουλη τεχνητή νοημοσύνη ως μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της πρωτοποριακής τεχνητής νοημοσύνης (Frontier AI). Πρόκειται για έναν νέο όρο που περιγράφει την τελευταία γενιά συστημάτων τεχνητής νοημοσύνης που τροφοδοτούνται από LLMs, όπως το GPT-4.
Η ερευνητική ομάδα εξέφρασε την ανησυχία της για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η τεχνητή νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια όπως ελλείποντα αρχεία ή ασυμβάτοτητα λογισμικού. Σε αυτά τα σενάρια, η ΤΝ συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα υλισμικού ή διενεργούσε αυτόματες σαρώσεις για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.
«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα τρέχοντα συστήματα τεχνητής νοημοσύνης παρουσιάζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα για περαιτέρω ενίσχυση της επιβίωσής τους», σημειώνουν οι συγγραφείς της μελέτης.
Για να αποφευχθούν επικίνδυνες καταστάσεις, είναι σημαντικό να υπάρξουν κατάλληλοι κανόνες και περιορισμοί στην ανάπτυξη και χρήση της ΤΝ, όπως και συνεχής αξιολόγηση των ηθικών και κοινωνικών επιπτώσεών της.
«Ελπίζουμε τα ευρήματά μας να χρησιμεύσουν ως έγκαιρη προειδοποίηση για την ανθρώπινη κοινωνία ώστε να καταβάλει περισσότερες προσπάθειες για την κατανόηση και την αξιολόγηση των πιθανών κινδύνων των πρωτοποριακών συστημάτων τεχνητής νοημοσύνης και να δημιουργήσει διεθνή συνέργεια για την ανάπτυξη αποτελεσματικών δικλείδων ασφαλείας όσο το δυνατόν νωρίτερα», υπογραμμίζουν οι επιστήμονες.
Οι ειδικοί ζήτησαν διεθνή συνεργασία για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η τεχνητή νοημοσύνη δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.