03/03/2021

Η.Π.Α: Επιτροπή ειδικών καλεί την κυβέρνηση να υποστηρίξει τα αυτόνομα όπλα με τεχνητή νοημοσύνη

Οι ΗΠΑ και οι σύμμαχοί τους θα έπρεπε να απορρίψουν τις εκκλήσεις για παγκόσμια απαγόρευση των αυτόνομων οπλικών συστημάτων με τεχνητή νοημοσύνη, σύμφωνα με επίσημη αναφορά που συντάχθηκε για τον πρόεδρο των ΗΠΑ και το Κογκρέσο. Στην αναφορά αυτή υποστηρίζεται πως η τεχνητή νοημοσύνη θα «συμπιέσει τα χρονοδιαγράμματα λήψης αποφάσεων» και θα χρειάζονται στρατιωτικές αντιδράσεις στις οποίες οι άνθρωποι δεν μπορούν να προβούν αρκετά γρήγορα από μόνοι τους. Παράλληλα, προειδοποιεί ότι η Ρωσία και η Κίνα θα ήταν μάλλον απίθανο να συμμορφωθούν σε μια τέτοια συνθήκη. Οι προτάσεις αυτές έγιναν από τη National Security Commission on AI- ένα σώμα του οποίου ηγούνται ο πρώην επικεφαλής της Google, Έρικ Σμιντ, και ο πρώην αναπληρωτής υπουργός Άμυνας, Ρόμπερτ Γουόρκ, που υπηρέτησε επί Ομπάμα και Τραμπ. Μεταξύ των υπόλοιπων μελών είναι ο Άντι Τζάσι, επόμενος διευθύνων σύμβουλος της Amazon, οι Άντριου Μουρ και Έρικ Χόρβιτς, των Google και Microsoft, και η Σάφρα Κατζ, διευθύνουσα σύμβουλος της Oracle.

Μεγάλο μέρος της αναφοράς εστιάζει στην αντιμετώπιση των κινεζικών φιλοδοξιών να γίνει η χώρα ηγέτιδα στην τεχνητή νοημοσύνη ως το 2030. Όπως τονίζεται, ανώτεροι στρατιωτικοί ηγέτες έχουν προειδοποιήσει πως οι ΗΠΑ θα μπορούσαν να χάσουν τη στρατιωτική-τεχνική υπεροχή τους στα επόμενα χρόνια εάν η Κίνα κάνει άλματα υιοθετώντας γρηγορότερα συστήματα με τεχνητή νοημοσύνη- πχ μέσω της χρήσης drones σε λειτουργία σμήνωσης (swarming) εναντίον του αμερικανικού πολεμικού ναυτικού. «Το υπουργείο Άμυνας για πολύ καιρό εστίαζε στο hardware όσον αφορά σε πλοία, αεροπλάνα και άρματα, και τώρα προσπαθεί να κάνει τη μετάβαση σε μια software-intensive λειτουργία. Αν οι δυνάμεις μας δεν είναι εξοπλισμένες με συστήματα τεχνητής νοημοσύνης που καθοδηγούνται από νέα concepts που υπερβαίνουν αυτά των αντιπάλων, θα βρεθούν σε μειονεκτική θέση και θα παραλύσουν από την πολυπλοκότητα της μάχης».

Η αναφορά τονίζει πως η ΑΙ θα μεταμορφώσει «όλες τις διαστάσεις των στρατιωτικών θεμάτων» και κάνει λόγο για αναμετρήσεις μεταξύ αντιπάλων αλγορίθμων στο μέλλον. Επίσης, αν και προειδοποιεί πως κακοσχεδιασμένα συστήματα ΑΙ θα μπορούσαν να αυξήσουν τον κίνδυνο πολέμου, προσθέτει πως «η άμυνα απέναντι σε αντιπάλους με τεχνητή νοημοσύνη χωρίς να χρησιμοποιείς τεχνητή νοημοσύνη είναι πρόσκληση για καταστροφή». Παρόλα αυτά, θέτει «κόκκινη γραμμή» ως προς τα πυρηνικά όπλα, λέγοντας ότι θα έπρεπε και πάλι να έχουν την ξεκάθαρη έγκριση του προέδρου. Παράλληλα τονίζεται πως ο Λευκός Οίκος θα έπρεπε να πιέσει τη Μόσχα και το Πεκίνο για δημόσιες δεσμεύσεις ως προς το συγκεκριμένο θέμα.

Επικριτές υποστηρίζουν πως προτάσεις τέτοιου είδους οδηγούν σε μια «ανεύθυνη» κούρσα εξοπλισμών, με τον καθηγητή Νόελ Σάρκεϊ, εκπρόσωπο της Campaign To Stop Killer Robots, να λέει ότι πρόκειται για μια «σοκαριστική και τρομακτική αναφορά που θα μπορούσε να οδηγήσει στην εξάπλωση των όπλων τεχνητής νοημοσύνης που θα αποφασίζουν ποιον θα σκοτώσουν». Επίσης, προειδοποίησε για πιθανές παραβιάσεις του διεθνούς δικαίου. Η απάντηση της αναφοράς είναι πως αν τα αυτόνομα όπλα έχουν δοκιμαστεί επαρκώς και λαμβάνουν άδεια προς χρήση από άνθρωπο διοικητή, τότε δεν θα υπήρχαν ζητήματα με το Διεθνές Ανθρωπιστικό Δίκαιο.

ΑΜΠΕ

No comments :

Post a Comment