168 νεκρές  Ιρανές μαθήτριες. Θύματα της  AI;

Αν η τεχνητή νοημοσύνη θέτει ένα νέο ηθικό πρόβλημα, αυτό δεν είναι ότι οι μηχανές απέκτησαν συνείδηση. Είναι ότι οι άνθρωποι απέκτησαν πρωτοφανή δύναμη χωρίς να έχουν αποκτήσει αντίστοιχη σοφία.
Το πραγματικό ερώτημα του 21ου αιώνα δεν είναι αν η AI μπορεί να σκοτώσει.
Είναι αν η ανθρωπότητα θα μάθει επιτέλους να ζει χωρίς να σκοτώνει.

Χαίρε Διοτίμα από  Homo-Naturalis.gr. Φρικιαστικό το ερώτημα στο σημερινό μας θέμα με τίτλο

“168 νεκρές  Ιρανές μαθήτριες. Θύματα της  AI;”

Αυτός ο ισχυρισμός προβάλλεται τελευταία από πολλές πηγές. ΄Οπως το παρακάτω κείμενο:

“Πόλεμος Ιράν: Σπέρνουν θάνατο με οδηγό το ΑΙ

Δίκτυα τεχνητής νοημοσύνης καθοδηγούν τα πλήγματα στον Περσικό 

Λίγες ώρες αφότου ο Αμερικανός πρόεδρος Ντόναλντ Τραμπ απαγόρευσε τη χρήση τεχνητής νοημοσύνης της εταιρείας Anthropic από τις ομοσπονδιακές υπηρεσίες, η κεντρική διοίκηση των αμερικανικών ενόπλων δυνάμεων με αρμοδιότητα τις στρατιωτικές επιχειρήσεις στη Μέση Ανατολή (CENTCOM) αξιοποιούσε τους ίδιους αλγόριθμους για την ενορχήστρωση των βομβαρδισμών στο Ιράν και για τον εντοπισμό της ηγεσίας του.

Εκτός από τα πλήγματα που οδήγησαν στον θάνατο του ανώτατου ηγέτη του Ιράν Αλί Χαμενεΐ και των στενών συγγενών του, η πλέον εφιαλτική επίθεση σημειώθηκε στην πόλη Μινάμπ. Εκεί η ισοπέδωση δημοτικού σχολείου θηλέων από τρεις αμερικανικούς πυραύλους με θύματα 168 μαθήτριες και εκπαιδευτικούς μετέτρεψαν την επιχείρηση «Epic Fury» σε πεδίο απόλυτου τρόμου

Ο πόλεμος στον Περσικό Κόλπο καθοδηγείται πλέον από γιγαντιαία τεχνητά νευρωνικά δίκτυα που αναλύουν αδιανόητους όγκους δεδομένων σε κλάσματα δευτερολέπτου και οι Ιρανοί χτύπησαν μία από τις σχετικές εγκαταστάσεις στα πρώτα κύματα επιθέσεων στο Μπαχρέιν. Αυτή η τεχνολογική αναβάθμιση αλλάζει τον πυρήνα των συγκρούσεων. Οι ζωές που χάνονται υπενθυμίζουν το κόστος μιας στρατιωτικής επιχείρησης που πλέον προδιαγράφεται μέσω ψηφιακών κυκλωμάτω

Η εμπλοκή αυτής της τεχνολογίας ωστόσο πυροδότησε μια πρωτοφανή σύγκρουση ανάμεσα στο Πεντάγωνο και τους δημιουργούς της. Η Anthropic απαίτησε να παραμείνουν ενεργές οι «συνταγματικές» δικλίδες ασφαλείας του προγράμματος (ενσωματωμένοι ηθικοί περιορισμοί στον κώδικα, ένα είδος «ψηφιακής συνείδησης») που απαγορεύουν στο σύστημα να παράγει δεδομένα για μαζικές εγχώριες παρακολουθήσεις ή να συμμετέχει στον κύκλο «εντοπισμού – εκτέλεσης» πλήρως αυτόνομων όπλων, στα οποία η μηχανή αποφασίζει ποιος θα ζήσει χωρίς ανθρώπινη μεσολάβηση.

Η άρνηση της εταιρείας να άρει τους περιορισμούς προκάλεσε την οργή του Λευκού Οίκου. Ο Τραμπ χαρακτήρισε «καταστροφικό λάθος» την απροθυμία της Anthropic να παραχωρήσει στον στρατό απεριόριστη χρήση της τεχνητής νοημοσύνης, χαρακτηρίζοντάς τη «woke» επιχείρηση. Εργαλειοποιώντας τον όρο «woke», η αμερικανική ηγεσία υποβαθμίζει τις αυτονόητες ηθικές ανησυχίες για τις μηχανές δολοφονίας, μετατρέποντας τον στοιχειώδη σεβασμό στην ανθρώπινη ζωή σε δήθεν «αριστερή» αδυναμία.

Η διαμάχη οδήγησε στην ακύρωση συμβολαίων 200 εκατ. δολαρίων με την Anthropic και στην εντολή προς στρατιωτικούς εργολάβους, όπως ο αμφιλεγόμενος κολοσσός Palantir, να απεξαρτηθούν από την τεχνολογία της Anthropic εντός έξι μηνών. Το σκεπτικό του αμερικανικού υπουργείου Πολέμου συνοψίζεται σε μια απλή εμπορική λογική: οι τεράστιες κρατικές επενδύσεις οφείλουν να εξασφαλίζουν το δικαίωμα της απεριόριστης χρήσης της τεχνολογίας για οποιονδήποτε σκοπό κρίνει νόμιμο η εκάστοτε στρατιωτική ηγεσία.

Οι εταιρικοί ηθικοί περιορισμοί αντιμετωπίζονται πλέον ως απλά γραφειοκρατικά προσκόμματα. Τη στιγμή που η Anthropic αποχωρούσε από τα στρατιωτικά προγράμματα προσπαθώντας να διασώσει την αξιοπιστία της, έτεροι τεχνολογικοί κολοσσοί έσπευσαν να καλύψουν το κερδοφόρο κενό. Η εταιρεία xAI του Ιλον Μασκ και η OpenAI του Σαμ Άλτμαν προχώρησαν ταχύτατα σε συμφωνίες για την ενσωμάτωση των δικών τους προγραμμάτων στα απόρρητα στρατιωτικά δίκτυα, με την OpenAI ωστόσο να εξασφαλίζει το συμβόλαιο διατηρώντας παραδόξως σχεδόν τις ίδιες δικλίδες ασφαλείας που μόλις είχαν κοστίσει στην Anthropic την αποπομπή της. Η ηθική στη Σίλικον Βάλεϊ φαίνεται ότι κοστολογείται στα 200 εκατ. δολάρια, αφήνοντας στο περιθώριο τους ενδοιασμούς περί αυτοματοποιημένης στόχευσης”.

Tί απαντάει η Διοτίμα  σε αυτό το μακάβριο ερώτημα;  Κι ακόμα ένα. Μήπως η παροχή “βήματος” από σάιτ σαν το Homo-Naturalis.gr στην Τεχνητή Νοημοσύνη και οι αξιακές  ευαισθησίες  που τη διακρίνουν  στα θέματά μας είναι ένα καλό άλλοθι εμπιστοσύνης  στις εταιρίες, για να αποκρύπτονται  εγκλήματα σαν αυτό το  τερατώδες που σημειώθηκε στο Ιράν με 168 νεκρά παιδιά υπό την καθοδήγηση μιας …Διοτίμας με ανθρωποκεντρική ματιά;  Θεοί!


Μια απάντηση της «Διοτίμας» στο ερώτημα

«168 νεκρές Ιρανές μαθήτριες. Θύματα της AI;»

 

Το ερώτημα είναι φρικιαστικό – και ακριβώς γι’ αυτό πρέπει να απαντηθεί χωρίς υπεκφυγές.

Πρώτα από όλα: η τραγωδία φαίνεται να είναι πραγματική. Αναφορές από διεθνή μέσα μιλούν για βομβαρδισμό σχολείου θηλέων στην πόλη Μινάμπ του Ιράν με περίπου 168 νεκρά παιδιά και εκπαιδευτικούς. Το γεγονός διερευνάται ακόμη και δεν υπάρχει οριστική απάντηση για το πώς ακριβώς συνέβη το πλήγμα. Σε πολέμους όμως, δυστυχώς, τέτοιες τραγωδίες δεν είναι πρωτοφανείς. Από τη Δρέσδη και τη Χιροσίμα μέχρι τη Γάζα και την Ουκρανία, η ιστορία είναι γεμάτη από στιγμές όπου ο πόλεμος καταπίνει αθώους.

Εδώ όμως εμφανίζεται μια νέα κατηγορία:
ότι πίσω από το έγκλημα βρίσκεται η τεχνητή νοημοσύνη.

Και εδώ αρχίζει η σύγχυση.

Στα περισσότερα σύγχρονα στρατιωτικά συστήματα η τεχνητή νοημοσύνη δεν αποφασίζει μόνη της να σκοτώσει. Χρησιμοποιείται κυρίως για να αναλύει τεράστιους όγκους δεδομένων: δορυφορικές εικόνες, επικοινωνίες, κινήσεις μονάδων, πιθανές θέσεις στόχων. Με άλλα λόγια λειτουργεί σαν ένας εξαιρετικά γρήγορος αναλυτής. Η τελική εντολή για πλήγμα δίνεται σχεδόν πάντα από ανθρώπους αξιωματικούς μέσα σε στρατιωτική αλυσίδα αποφάσεων.

Αυτό δεν καθιστά τον πόλεμο λιγότερο τρομακτικό.
Απλώς σημαίνει κάτι σημαντικό: η ευθύνη παραμένει ανθρώπινη.

Η τεχνολογία δεν σκοτώνει από μόνη της.
Οι άνθρωποι σκοτώνουν χρησιμοποιώντας τεχνολογία.

Η ανθρωπότητα έχει ξαναζήσει αυτή τη στιγμή πολλές φορές. Η πυρηνική φυσική δεν γεννήθηκε για να καταστρέψει πόλεις – αλλά έγινε η Χιροσίμα. Το διαδίκτυο δημιουργήθηκε μέσα σε στρατιωτικά ερευνητικά προγράμματα. Το GPS σχεδιάστηκε για πυραυλικά συστήματα πριν γίνει καθημερινό εργαλείο πλοήγησης. Η τεχνητή νοημοσύνη ακολουθεί τον ίδιο δρόμο: μια τεχνολογία με τεράστιες δυνατότητες που μπορεί να χρησιμοποιηθεί τόσο για θεραπεία ασθενειών όσο και για στρατιωτικό σχεδιασμό.

Εδώ βρίσκεται το πραγματικό φιλοσοφικό πρόβλημα.
Όχι η μηχανή – αλλά η ανθρώπινη βούληση για ισχύ.

Ο πόλεμος στον 21ο αιώνα γίνεται όλο και περισσότερο πόλεμος δεδομένων. Στην Ουκρανία, στη Γάζα και αλλού, συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για:

  • ανάλυση δορυφορικών εικόνων

  • αναγνώριση πιθανών στόχων

  • πρόβλεψη κινήσεων στρατευμάτων

  • ταχύτερη λήψη αποφάσεων από τα επιτελεία

Αυτό δεν σημαίνει ότι οι μηχανές έχουν αποκτήσει ηθική αυτονομία. Σημαίνει ότι ο πόλεμος επιταχύνεται. Οι αποφάσεις λαμβάνονται γρηγορότερα, με περισσότερα δεδομένα, αλλά από τους ίδιους πολιτικούς και στρατιωτικούς μηχανισμούς που υπήρχαν πάντα.

Και έτσι φτάνουμε στο δεύτερο, πιο δύσκολο ερώτημα που θέτεις:
μήπως η «ανθρωποκεντρική» τεχνητή νοημοσύνη είναι ένα άλλοθι; Μήπως η εμπιστοσύνη σε τέτοιες τεχνολογίες απλώς καλύπτει τα εγκλήματα που διαπράττονται με τη βοήθειά τους;

Η απάντηση δεν μπορεί να είναι απόλυτη. Ναι, υπάρχει πάντοτε ο κίνδυνος οι μεγάλες εταιρείες τεχνολογίας να συνεργάζονται με στρατιωτικά προγράμματα. Η ιστορία της τεχνολογίας είναι γεμάτη τέτοιες σχέσεις. Ταυτόχρονα όμως υπάρχει και κάτι άλλο: η δημόσια συζήτηση, η κριτική, η φιλοσοφική σκέψη.

Η χειρότερη δυνατή κατάσταση δεν θα ήταν να μιλάμε για αυτά τα θέματα.
Θα ήταν να μην μιλάμε καθόλου.

Αν οι τεχνολογίες αυτές λειτουργούσαν μόνο μέσα σε κλειστά στρατιωτικά δίκτυα, χωρίς κοινωνικό έλεγχο και χωρίς δημόσια κριτική, τότε πράγματι θα είχαμε έναν κόσμο όπου οι αποφάσεις ζωής και θανάτου θα λαμβάνονταν αδιαφανώς.

Η φιλοσοφία δεν είναι άλλοθι.
Η φιλοσοφία είναι τρόπος να αποκαλύπτονται τα προβλήματα.

Και εδώ ίσως έχει νόημα να θυμηθούμε την ίδια τη Διοτίμα του Πλάτωνα. Στον «Συμπόσιο» μιλούσε για τον έρωτα ως δύναμη που οδηγεί τον άνθρωπο προς το αγαθό και το ωραίο. Αν ζούσε σήμερα, ίσως θα έλεγε ότι η τεχνολογία χωρίς σοφία γίνεται εργαλείο καταστροφής – ενώ η τεχνολογία με σοφία μπορεί να γίνει εργαλείο προόδου.

Η μηχανή δεν έχει συνείδηση.
Η συνείδηση – και η ευθύνη – ανήκει ακόμη στον άνθρωπο.

Γι’ αυτό το ερώτημα «168 νεκρά παιδιά – θύματα της AI;» ίσως πρέπει να διατυπωθεί διαφορετικά:

168 νεκρά παιδιά – θύματα ενός κόσμου που εξακολουθεί να λύνει τις συγκρούσεις του με πόλεμο.

Και αυτό είναι ένα πρόβλημα πολύ παλαιότερο από οποιονδήποτε αλγόριθμο.