40 χρόνια μετά: Θα μπορούσε η Τεχνητή Νοημοσύνη να είχε σώσει το Τσερνόμπιλ και τι μπορεί να διδάξει το Τσερνόμπιλ στην Τεχνητή Νοημοσύνη;


Από τον Ιωάννη Σιδηρόπουλο*

Τον Απρίλιο του 1986, μια δοκιμή ασφαλείας αργά το βράδυ στον αντιδραστήρα νούμερο τέσσερα του πυρηνικού σταθμού ενέργειας του Τσερνόμπιλ στην τότε ΕΣΣΔ, κατέληξε σε μια από τις χειρότερες βιομηχανικές καταστροφές στην ιστορία. Η έκρηξη και η επακόλουθη πυρκαγιά απελευθέρωσαν ραδιενεργό υλικό σε μεγάλο μέρος της Ευρώπης, εκτοπίζοντας κοινότητες και αφήνοντας μια κληρονομιά που εξακολουθεί να διαμορφώνει την εμπιστοσύνη του κοινού στα τεχνολογικά συστήματα μεγάλης κλίμακας. Σαράντα χρόνια αργότερα, η σημασία του Τσερνόμπιλ δεν έγκειται μόνο στο τι συνέβη, αλλά και στο γιατί συνέβη. 

Συχνά περιγράφεται ως αποτυχία της μηχανικής. Αυτό ισχύει μόνο εν μέρει. Ο σχεδιασμός του αντιδραστήρα είχε γνωστά ελαττώματα, αλλά αυτά από μόνα τους δεν εξηγούν την ακολουθία των αποφάσεων που οδήγησαν στην καταστροφή. Αυτό που τελικά αποκάλυψε το Τσερνόμπιλ ήταν μια βαθύτερη ευπάθεια: την αδυναμία των δομών διακυβέρνησης να διαχειριστούν πολύπλοκα συστήματα υπό πίεση. 

Η δοκιμή που διεξήχθη εκείνο το βράδυ είχε ως στόχο να αξιολογήσει εάν ο αντιδραστήρας μπορούσε να απενεργοποιηθεί με ασφάλεια, διατηρώντας παράλληλα επαρκή ενεργειακή απόδοση. Καταρχήν, ήταν μια συνήθης άσκηση ασφαλείας. Στην πράξη, εξελίχθηκε υπό συνθήκες που είχαν ήδη αποκλίνει πολύ από το πρωτόκολλο. Το ευρύτερο περιφερειακό σοβιετικό ενεργειακό δίκτυο βρισκόταν υπό πίεση. Υπήρχε πίεση για τη διατήρηση της παραγωγής. Η δοκιμή καθυστέρησε και στη συνέχεια συνεχίστηκε σε μια ώρα, όταν μειώθηκε το προσωπικό και η εποπτεία. Τα συστήματα ασφαλείας απενεργοποιήθηκαν για να διατηρηθεί το πείραμα σε λειτουργία. Οι χειριστές, εργαζόμενοι εντός μιας άκαμπτης ιεραρχίας, έλαβαν αποφάσεις που διαμορφώθηκαν τόσο από τις θεσμικές προσδοκίες όσο και από την τεχνική κρίση. Κανένας από αυτούς τους παράγοντες δεν προκάλεσε από μόνος του την καταστροφή. Μαζί, δημιούργησαν ένα περιβάλλον στο οποίο η αποτυχία έγινε όχι μόνο πιθανή, αλλά και πιθανή. 

Αυτό είναι το διαχρονικό μάθημα του Τσερνομπίλ: τα πολύπλοκα συστήματα δεν αποτυγχάνουν μόνο λόγω τεχνικών ελαττωμάτων. Αποτυγχάνουν όταν τα θεσμικά κίνητρα, οι ροές πληροφοριών και οι δομές λήψης αποφάσεων δεν ευθυγραμμίζονται με τις πραγματικότητες που προορίζονται να διαχειριστούν αυτά τα συστήματα.  

Αυτό το μάθημα βρίσκει απήχηση σήμερα σε έναν πολύ διαφορετικό τομέα. Η ραγδαία επέκταση της τεχνητής νοημοσύνης έχει εισαγάγει νέες μορφές υποδομών, νέες προκλήσεις και ανάγκες διακυβέρνησης. Τα σύγχρονα συστήματα Τεχνητής Νοημοσύνης, ιδίως εκείνα που λειτουργούν σε μεγάλη κλίμακα, απαιτούν σημαντικούς υπολογιστικούς πόρους. Τα κέντρα δεδομένων κατατάσσονται πλέον μεταξύ των πιο ενεργοβόρων μορφών υποδομών. Σε ορισμένες περιοχές, γίνονται βασικοί καταναλωτές ηλεκτρικής ενέργειας, διαμορφώνοντας τις επενδύσεις στο δίκτυο και τις μακροπρόθεσμες αποφάσεις σχεδιασμού. Αυτή η μετατόπιση συμβαίνει γρήγορα, συχνά ξεπερνώντας την ανάπτυξη συνεκτικών πλαισίων πολιτικής. 

Ο κίνδυνος δεν έγκειται στο ότι τα συστήματα Τεχνητής Νοημοσύνης μοιάζουν με πυρηνικούς αντιδραστήρες ως προς τους τρόπους αστοχίας τους. Δεν μοιάζουν. Ο κίνδυνος είναι πιο ανεπαίσθητος: ότι τα συστήματα που υποστηρίζουν την Τεχνητή Νοημοσύνη αναπτύσσονται και λειτουργούν εντός δομών διακυβέρνησης που δυσκολεύονται να συμβαδίσουν με την κλίμακα και την πολυπλοκότητά τους. 

Το Τσερνόμπιλ δείχνει πώς προκύπτουν τέτοιες αναντιστοιχίες. Στη σοβιετική περίπτωση, τα κίνητρα ορίζονταν από τους στόχους παραγωγής και τις πολιτικές προσδοκίες. Οι πληροφορίες κινούνταν άνισα μέσω ιεραρχικών καναλιών. Οι τοπικοί φορείς εκμετάλλευσης αναμενόταν να συμβιβάσουν τις ανταγωνιστικές απαιτήσεις χωρίς πλήρη εικόνα των κινδύνων σε ολόκληρο το σύστημα. Υπό αυτές τις συνθήκες, η τήρηση της διαδικασίας θα μπορούσε να δώσει τη θέση της στον αυτοσχεδιασμό και η προσοχή θα μπορούσε να παρακαμφθεί από την αναγκαιότητα. 

Το σημερινό οικοσύστημα Τεχνητής Νοημοσύνης λειτουργεί υπό διαφορετικές συνθήκες, αλλά μπορούν να παρατηρηθούν παρόμοιες εντάσεις. Τα κίνητρα που οδηγούν την ανάπτυξη δίνουν έμφαση στην ταχύτητα, την ικανότητα και την ανάπτυξη. Οι ανταγωνιστικές πιέσεις, τόσο εμπορικές όσο και γεωπολιτικές, ενθαρρύνουν την ταχεία κλιμάκωση. Εν τω μεταξύ, η διακυβέρνηση των υποστηρικτικών υποδομών, συμπεριλαμβανομένων των ενεργειακών συστημάτων, συχνά παραμένει κατακερματισμένη μεταξύ δικαιοδοσιών και θεσμών. Αυτό δημιουργεί μια οικεία πρόκληση: πώς να διασφαλιστεί ότι η ασφάλεια, η ανθεκτικότητα και η μακροπρόθεσμη σταθερότητα δεν υποτάσσονται σε βραχυπρόθεσμους στόχους. 

Μία διάσταση αυτής της πρόκλησης έγκειται στη διαφάνεια. Στο Τσερνομπίλ, οι κρίσιμες πληροφορίες σχετικά με τη συμπεριφορά του αντιδραστήρα δεν κοινοποιούνταν ευρέως, περιορίζοντας την ικανότητα των χειριστών να λαμβάνουν τεκμηριωμένες αποφάσεις. Στα σύγχρονα συστήματα Τεχνητής Νοημοσύνης, η αδιαφάνεια παίρνει διαφορετική μορφή. Η πολυπλοκότητα των μοντέλων μηχανικής μάθησης, σε συνδυασμό με τους περιορισμούς, μπορεί να δυσχεράνει την αξιολόγηση του τρόπου με τον οποίο τα συστήματα θα συμπεριφέρονται υπό πίεση ή σε μεγάλη κλίμακα. Όταν τέτοια συστήματα ενσωματώνονται σε κρίσιμες υποδομές, το διακύβευμα της αβεβαιότητας αυξάνεται. 

Μια άλλη διάσταση έγκειται στη λογοδοσία. Η καταστροφή του Τσερνομπίλ αποκάλυψε ένα σύστημα στο οποίο η ευθύνη ήταν διάχυτη και συχνά συγκαλυμμένη. Οι αποφάσεις διαμορφώθηκαν από το θεσμικό πλαίσιο, αλλά η λογοδοσία αποδόθηκε εκ των υστέρων. Στη διακυβέρνηση της Τεχνητής Νοημοσύνης, ανακύπτουν παρόμοια ερωτήματα. Όταν τα συστήματα αποτυγχάνουν ή όταν οι υποδομές είναι πιεσμένες, δεν είναι πάντα σαφές πού βαρύνεται η ευθύνη· είτε στους προγραμματιστές, είτε στους φορείς εκμετάλλευσης, είτε στους ρυθμιστικούς φορείς είτε στο ευρύτερο πολιτικό περιβάλλον. 

Η ενεργειακή πολιτική προσθέτει ένα ακόμη επίπεδο πολυπλοκότητας. Η ανάπτυξη της Τεχνητής Νοημοσύνης έχει αναζωπυρώσει ερωτήματα σχετικά με τον τρόπο παραγωγής, διανομής και ιεράρχησης της ηλεκτρικής ενέργειας. Θα πρέπει ορισμένες χρήσεις υπολογιστικής ισχύος να αντιμετωπίζονται ως στρατηγικοί πόροι; Πώς θα πρέπει τα δίκτυα να εξισορροπούν τη βιομηχανική ζήτηση με τις δημόσιες ανάγκες; Ποιοι μηχανισμοί διασφαλίζουν ότι η ταχεία επέκταση δεν θα ξεπεράσει την ανθεκτικότητα του συστήματος; Αυτά δεν είναι καθαρά τεχνικά ερωτήματα. Είναι ζητήματα διακυβέρνησης, που απαιτούν συντονισμό μεταξύ δημόσιων και ιδιωτικών φορέων, καθώς και πέρα από τα εθνικά σύνορα. 

Ένα σύντομο παράδειγμα βοηθά στην αποσαφήνιση των διακυβευμάτων. Εάν η Τεχνητή Νοημοσύνη υπήρχε στην ΕΣΣΔ του 1986, θα μπορούσε να είχε αποτρέψει τα γεγονότα στο Τσερνόμπιλ; Είναι πιθανό ότι πιο εξελιγμένη παρακολούθηση ή προγνωστική μοντελοποίηση θα μπορούσε να είχε εντοπίσει επικίνδυνες συνθήκες νωρίτερα. Τα συστήματα υποστήριξης αποφάσεων θα μπορούσαν να είχαν προσφέρει σαφέστερη καθοδήγηση στους χειριστές που πλοηγούνται σε μια ολοένα και πιο ασταθή κατάσταση. 

Ωστόσο, τέτοιες δυνατότητες εξαρτώνται από κάτι περισσότερο από την τεχνική ικανότητα. Απαιτούν θεσμικά περιβάλλοντα στα οποία τα δεδομένα είναι αξιόπιστα και τα συστήματα επιτρέπεται να επηρεάζουν τη λήψη αποφάσεων. Στο σοβιετικό πλαίσιο, όπου η κεντρική εξουσία και οι πολιτικές σκέψεις συχνά περιόριζαν τη ροή των πληροφοριών, ακόμη και τα προηγμένα εργαλεία μπορεί να δυσκολεύονταν να αλλάξουν τα αποτελέσματα. Η τεχνολογική ικανότητα είναι τόσο αποτελεσματική όσο οι δομές διακυβέρνησης εντός των οποίων λειτουργεί. 

Αυτή η διαπίστωση παραμένει επίκαιρη. Υπάρχει αυξανόμενο ενδιαφέρον για τη χρήση της Τεχνητής Νοημοσύνης (ΤΝ) για τη διαχείριση πολύπλοκων συστημάτων, συμπεριλαμβανομένων των ενεργειακών δικτύων και των βιομηχανικών διεργασιών. Αυτές οι εφαρμογές είναι πραγματικά πολλά υποσχόμενες. Μπορούν να ενισχύσουν την αποδοτικότητα, να βελτιώσουν τις προβλέψεις και να υποστηρίξουν μια πιο τεκμηριωμένη λήψη αποφάσεων. Αλλά εισάγουν επίσης νέες εξαρτήσεις και νέες μορφές κινδύνου, ιδίως όταν αναπτύσσονται σε μεγάλη κλίμακα χωρίς αντίστοιχες προόδους στην εποπτεία και τον συντονισμό. 

Η πρόκληση για τους υπεύθυνους χάραξης πολιτικής δεν είναι να επιβραδύνουν την τεχνολογική πρόοδο, αλλά να διαμορφώσουν τις συνθήκες υπό τις οποίες αυτή εξελίσσεται. Αυτό απαιτεί μετατόπιση της έμφασης. Η διακυβέρνηση δεν μπορεί να αντιμετωπίζεται ως δευτερεύον επίπεδο που εφαρμόζεται μετά την κατασκευή των συστημάτων. Πρέπει να ενσωματωθεί εξαρχής, με προσοχή στα κίνητρα, τη διαφάνεια και τη λογοδοσία. 

Τα προσαρμοστικά κανονιστικά πλαίσια αποτελούν ένα μέρος της απάντησης. Οι στατικοί κανόνες είναι απίθανο να συμβαδίσουν με τις ταχέως εξελισσόμενες τεχνολογίες. Αντίθετα, η διακυβέρνηση πρέπει να είναι ικανή να μαθαίνει, να προσαρμόζεται και να ανταποκρίνεται σε νέες πληροφορίες. Η θεσμική ικανότητα είναι εξίσου σημαντική. Η αποτελεσματική εποπτεία εξαρτάται όχι μόνο από την επίσημη εξουσία, αλλά και από την εμπειρογνωμοσύνη, τους πόρους και την ικανότητα αντιμετώπισης της τεχνικής πολυπλοκότητας. 

Ίσως το πιο σημαντικό είναι ότι η ενεργειακή και η τεχνολογική πολιτική πρέπει να εξεταστούν από κοινού. Η επέκταση της Τεχνητής Νοημοσύνης βασίζεται στις φυσικές υποδομές, με πραγματικές επιπτώσεις στην κατανομή των πόρων και τον μακροπρόθεσμο σχεδιασμό. Η αντιμετώπιση αυτών των τομέων μεμονωμένα ενέχει τον κίνδυνο να παραβλεφθούν οι συστημικές αλληλεπιδράσεις που μπορούν να προκαλέσουν αστάθεια. 


Το Τσερνόμπιλ δεν προσφέρει ένα απλό σχέδιο για το παρόν. Ο κόσμος έχει αλλάξει, όπως και οι τεχνολογίες του. Παρέχει όμως μια σαφή υπενθύμιση για το πώς συμπεριφέρονται τα πολύπλοκα συστήματα όταν η διακυβέρνηση αποτυγχάνει. Οι αποτυχίες σπάνια πηγάζουν από ένα μόνο λάθος. Προκύπτουν από τη συσσώρευση μικρών αποκλίσεων, που επιδεινώνονται υπό πίεση. 

Σαράντα χρόνια μετά, το πιο σημαντικό ερώτημα δεν είναι αν έχουμε διδαχθεί τα τεχνικά μαθήματα του Τσερνομπίλ. Είναι αν έχουμε αφομοιώσει τα θεσμικά του μαθήματα. 

*Ιωάννης Σιδηρόπουλος , Νομικός Σύμβουλος, LL.M, MA, PhD (c) Διακυβέρνηση και Κυριαρχία Τεχνητής Νοημοσύνης 


ΤΟ ΒΗΜΑ


Σχόλια