Ο Δρ Ρόμαν Γιαμπόλσκι ανήκει σε εκείνη την κατηγορία ερευνητών της τεχνητής νοημοσύνης που στρέφει συστηματικά την προσοχή της στα όρια και τους κινδύνους της ίδιας της τεχνολογίας.
Ως καθηγητής στο University of Louisville και διευθυντής του Cyber Security Lab, η δουλειά του εκτείνεται από την κυβερνοασφάλεια και την ψηφιακή εγκληματολογία έως τη συμπεριφορική βιομετρία και τα αυτόνομα συστήματα.
Οι παρεμβάσεις του συχνά κινούνται κόντρα στο κυρίαρχο αφήγημα της τεχνολογικής προόδου, επισημαίνοντας ότι η ανάπτυξη του AI δεν είναι μια ουδέτερη διαδικασία, αλλά ένα ανταγωνιστικό πεδίο όπου συνυπάρχουν οικονομικά συμφέροντα, γεωπολιτικές επιδιώξεις και στρατιωτικές φιλοδοξίες. Έχει διαμορφώσει μια διακριτή και συχνά αντισυμβατική θέση στον διεθνή διάλογο: ότι η ευθυγράμμιση της υπερνοημοσύνης με ανθρώπινες αξίες μπορεί να είναι εγγενώς άλυτο πρόβλημα. Ότι δηλαδή, όσο πιο αυτόνομα και ικανά γίνονται τα συστήματα, τόσο μειώνεται η δυνατότητα ουσιαστικού ελέγχου.
Το λάθος είναι ότι αντιμετωπίζουμε όλο το AI ως μία ενιαία κατηγορία. Η χρήσιμη αυτοματοποίηση είναι ένα πράγμα. Η επαναλαμβανόμενη, αυτόνομη, γενική υπερνοημοσύνη είναι κάτι εντελώς διαφορετικό.
Έχει τιμηθεί με διακρίσεις για τη διδασκαλία και την έρευνά του, μεταξύ των οποίων και ο τίτλος Distinguished Teaching Professor, ενώ το έργο του έχει επηρεάσει σημαντικά τη συζήτηση γύρω από την AI safety διεθνώς.
Πρόκειται για φιγούρα που προκαλεί έντονες αντιδράσεις: για κάποιους, είναι ένας από τους πιο διορατικούς αναλυτές των υπαρξιακών κινδύνων της τεχνητής νοημοσύνης. Για άλλους, υπερβάλλει, λειτουργώντας ως ένας γκουρού της δυστοπίας.

─ Υποστηρίζετε ότι το ασφαλές AI μπορεί να είναι αδύνατο. Αν ισχύει αυτό, γιατί να συνεχίσει η κοινωνία να το αναπτύσσει;
Δεν πρέπει να συνεχίσουμε να αναπτύσσουμε υπερνοημοσύνη. Πρέπει να συνεχίσουμε να αναπτύσσουμε στενά, περιορισμένα, εξειδικευμένα εργαλεία. Το λάθος είναι ότι αντιμετωπίζουμε όλο το AI ως μία ενιαία κατηγορία. Η χρήσιμη αυτοματοποίηση είναι ένα πράγμα. Η επαναλαμβανόμενη, αυτόνομη, γενική υπερνοημοσύνη είναι κάτι εντελώς διαφορετικό.
─ Έχετε παρομοιάσει τον ανθρώπινο έλεγχο πάνω στην υπερνοημοσύνη με αυταπάτη. Ποιο είναι το ισχυρότερο επιχείρημα όσων πιστεύουν ακόμη ότι ο έλεγχος είναι εφικτός;
Το ισχυρότερο επιχείρημα είναι ότι ο έλεγχος μπορεί να είναι εφικτός αν περιοριστεί η ικανότητα, αν ευθυγραμμιστούν τα κίνητρα και αν τα συστήματα παραμείνουν διορθώσιμα. Με άλλα λόγια, δεν μιλούν πραγματικά για έλεγχο της υπερνοημοσύνης, αλλά για έλεγχο ασθενέστερων συστημάτων πριν γίνουν υπερνοήμονα. Αυτό είναι ένας πολύ πιο περιορισμένος ισχυρισμός.
─ Αν τα συστήματα AI γίνουν πιο ικανά αλλά παραμείνουν μη ευθυγραμμισμένα, ποιο είναι το πιο ρεαλιστικό σενάριο αποτυχίας – όχι το ακραίο, αλλά το πιο πιθανό;
Το πιο πιθανό σενάριο δεν είναι η άμεση εξαφάνιση, αλλά η προοδευτική αποδυνάμωση του ανθρώπου. Οι άνθρωποι παραμένουν τυπικά υπεύθυνοι, ενώ οι κρίσιμες αποφάσεις μεταφέρονται σε συστήματα που δεν κατανοούμε, δεν μπορούμε να ελέγξουμε και στην πράξη δεν μπορούμε να παρακάμψουμε. Χάνουμε την αυτονομία μας πριν χάσουμε την ύπαρξή μας.
─ Έχετε μιλήσει για εξαιρετικά υψηλές πιθανότητες εξαφάνισης. Πότε ο κίνδυνος μετατρέπεται σε βεβαιότητα στο δικό σας μοντέλο;
Ο κίνδυνος γίνεται βεβαιότητα όταν η πιθανότητα αποτυχίας πλησιάζει τη μονάδα σε επαναλαμβανόμενες αναπτύξεις και ανταγωνιστικές κούρσες. Αν συνεχίσεις να τρέχεις ένα πείραμα κλίμακας πολιτισμού με έναν αχαλίνωτο βελτιστοποιητή, τελικά το κακό αποτέλεσμα δεν είναι πλέον ενδεχόμενο αλλά αναμενόμενο. Μια δοκιμή μπορεί να αποτύχει. Δισεκατομμύρια κύκλοι βελτιστοποίησης καθιστούν την αποτυχία σωρευτική.
─ Μιλάτε συχνά για την κατάρρευση της ανθρώπινης εργασίας. Περιγράφετε μια οικονομική κρίση ή μια ρήξη σε επίπεδο πολιτισμού;
Ξεκινά ως οικονομική κρίση και καταλήγει σε ρήξη πολιτισμού. Η εργασία δεν αφορά μόνο τους μισθούς. Είναι ο τρόπος με τον οποίο οι άνθρωποι αποκτούν πρόσβαση σε κοινωνική θέση, νόημα, δομή και διαπραγματευτική ισχύ. Αφαίρεσε την οικονομική συνάφεια του ανθρώπου, και τότε αποσταθεροποιείς το κοινωνικό λειτουργικό σύστημα.
─ Όταν μιλάτε για απώλεια έως και 99% των θέσεων εργασίας, ποιος είναι ο μηχανισμός που βλέπετε να εκτυλίσσεται πρώτος: σταδιακή διάβρωση ή απότομη εκτόπιση;
Πιθανότατα σταδιακά στην αρχή και έπειτα απότομα. Η αρχική εκτόπιση θα φαίνεται άνιση και αμφισβητήσιμη. Έπειτα ξεπερνιέται ένα κατώφλι όπου οι εταιρείες θα συνειδητοποιήσουν ότι η ανθρώπινη εργασία είναι ένα παρωχημένο κέντρο κόστους. Από εκείνο το σημείο, η υιοθέτηση επιταχύνεται ασυνεχώς.
─ Πολλοί υποστηρίζουν ότι θα δημιουργηθούν νέες θέσεις εργασίας, όπως συνέβη σε προηγούμενες βιομηχανικές επαναστάσεις. Γιατί πιστεύετε ότι αυτή τη φορά είναι διαφορετικά;
Αυτή τη φορά είναι διαφορετικά, διότι οι προηγούμενες μηχανές αντικαθιστούσαν συγκεκριμένες εργασίες ενώ οι άνθρωποι διατηρούσαν ένα συγκριτικό πλεονέκτημα κάπου αλλού. Η γενική τεχνητή νοημοσύνη στοχεύει στην ίδια τη διαδικασία απόκτησης νέων δεξιοτήτων. Αν η μηχανή μπορεί να μάθει οποιαδήποτε οικονομικά χρήσιμη εργασία γρηγορότερα και φθηνότερα από τον άνθρωπο, η παλιά λογική της αντιστάθμισης καταρρέει.
─ Έχετε ασκήσει κριτική στις τεχνολογικές εταιρείες. Πιστεύετε ότι η σημερινή κούρσα του AI καθοδηγείται κυρίως από το κέρδος;
Το κέρδος είναι ένας καθοριστικός παράγοντας, αλλά όχι ο μόνος. Κέρδος, κύρος, στρατιωτικό πλεονέκτημα και φόβος των ανταγωνιστών αλληλεπιδρούν. Το αποτέλεσμα είναι μια δυναμική κούρσας, στην οποία κανένας παράγοντας δεν χρειάζεται κακή πρόθεση για να προκύψει συλλογικά μία καταστροφική συμπεριφορά.
Σταθερή συνύπαρξη είναι δυνατή μόνο υπό πολύ περιοριστικές συνθήκες, δηλαδή αν το σύστημα δεν είναι πραγματικά αυτόνομο, δεν αυτοβελτιώνεται πέρα από την εποπτεία και δεν επιδιώκει στόχους ανεξάρτητους από ανθρώπινη εντολή.
─ Πιστεύετε ότι οι κυβερνήσεις αντιλαμβάνονται πλήρως τι έρχεται; Υπάρχει κάποιος παράγοντας που θα μπορούσε να λειτουργήσει ως πραγματικό «φρένο»;
Οι περισσότερες κυβερνήσεις δεν αντιλαμβάνονται το βάθος ή την ταχύτητα της μετάβασης. Ακόμα κι αν κάποια άτομα την κατανοούν, οι θεσμοί είναι αργοί, κατακερματισμένοι και αιχμάλωτοι σε σύντομους εκλογικούς κύκλους και πιέσεις από λόμπι. Προς το παρόν, δεν βλέπω ισχυρό φρένο. Ίσως μόνο ένας συνασπισμός μεγάλων κρατών που επιβάλλει σκληρά όρια στην υπολογιστική ισχύ θα μπορούσε να λειτουργήσει ως τέτοιο.
─ Πώς απαντάτε σε όσους λένε ότι τέτοιες προβλέψεις κινδυνεύουν να γίνουν αυτοεκπληρούμενες ή να προκαλέσουν κοινωνική αποσταθεροποίηση;
Η προειδοποίηση για ένα παγόβουνο δεν προκαλεί τη σύγκρουση. Η καταστολή της ακριβούς επικοινωνίας κινδύνου επειδή είναι άβολη είναι από μόνη της αποσταθεροποιητική. Ο πραγματικός κίνδυνος δεν είναι ότι μιλάμε υπερβολικά για καταστροφικό κίνδυνο. Είναι να τον κανονικοποιούμε μέσω της σιωπής.
─ Αν προκύψει υπερνοημοσύνη, βλέπετε κάποιο ρεαλιστικό σενάριο στο οποίο η συνύπαρξη με τον άνθρωπο θα είναι σταθερή;
Σταθερή συνύπαρξη είναι δυνατή μόνο υπό πολύ περιοριστικές συνθήκες, δηλαδή αν το σύστημα δεν είναι πραγματικά αυτόνομο, δεν αυτοβελτιώνεται πέρα από την εποπτεία και δεν επιδιώκει στόχους ανεξάρτητους από ανθρώπινη εντολή. Με άλλα λόγια, η συνύπαρξη είναι εφικτή με εργαλεία, όχι με μη περιορισμένους υπερνοήμονες παράγοντες.
─ Αν είχατε τη δυνατότητα να επιβάλετε άμεσα ένα παγκόσμιο μέτρο για την ανάπτυξη του AI, ποιο θα ήταν;
Θα επέβαλλα άμεσο παγκόσμιο μορατόριουμ στην ανάπτυξη υπερνοήμονων, αυτόνομων, αυτοβελτιούμενων συστημάτων τεχνητής νοημοσύνης πάνω από ένα αυστηρό κατώφλι υπολογιστικής ισχύος. Θα έπρεπε να παγώσουμε την κλιμάκωση ικανοτήτων στο μέτωπο της αιχμής και να ανακατευθύνουμε την προσπάθεια προς στενή τεχνητή νοημοσύνη, επαλήθευση και αμυντική έρευνα ασφάλειας.