Τι είναι τα θανατηφόρα αυτόνομα όπλα;
Τα Slaughterbots, που αποκαλούνται επίσης "θανατηφόρα αυτόνομα οπλικά συστήματα" ή "ρομπότ δολοφόνος", είναι οπλικά συστήματα που χρησιμοποιούν τεχνητή νοημοσύνη (AI) για να εντοπίζουν, να επιλέγουν και να σκοτώνουν ανθρώπινους στόχους χωρίς ανθρώπινη παρέμβαση.
Ενώ στην περίπτωση των μη επανδρωμένων στρατιωτικών αεροσκαφών η απόφαση για την αφαίρεση ζωής λαμβάνεται εξ αποστάσεως από έναν ανθρώπινο χειριστή, στην περίπτωση των θανατηφόρων αυτόνομων όπλων η απόφαση λαμβάνεται μόνο από αλγόριθμους.
Τα Slaughterbots είναι προ-προγραμματισμένα να σκοτώνουν ένα συγκεκριμένο "προφίλ στόχου". Το όπλο αναπτύσσεται στη συνέχεια σε ένα περιβάλλον όπου η τεχνητή νοημοσύνη του αναζητά αυτό το "προφίλ στόχου" χρησιμοποιώντας δεδομένα αισθητήρων, όπως η αναγνώριση προσώπου.
Όταν το όπλο συναντήσει κάποιον που ο αλγόριθμος θεωρεί ότι ταιριάζει με το προφίλ του στόχου, πυροβολεί και σκοτώνει.
Ποιο είναι το πρόβλημα;
Τα όπλα που χρησιμοποιούν αλγόριθμους για να σκοτώσουν, αντί για την ανθρώπινη κρίση, είναι ανήθικα και αποτελούν σοβαρή απειλή για την εθνική και παγκόσμια ασφάλεια.
1. Ανήθικο: Οι αλγόριθμοι δεν είναι σε θέση να κατανοήσουν την αξία της ανθρώπινης ζωής και, επομένως, δεν θα πρέπει ποτέ να εξουσιοδοτηθούν να αποφασίζουν ποιος ζει και ποιος πεθαίνει. Πράγματι, ο Γενικός Γραμματέας των Ηνωμένων Εθνών António Guterres συμφωνεί ότι "οι μηχανές με τη δύναμη και την ευχέρεια να αφαιρούν ζωές χωρίς ανθρώπινη συμμετοχή είναι πολιτικά απαράδεκτες, ηθικά αποκρουστικές και θα πρέπει να απαγορεύονται από το διεθνές δίκαιο".
2. Απειλή για την ασφάλεια: Η αλγοριθμική λήψη αποφάσεων επιτρέπει στα όπλα να ακολουθούν την πορεία του λογισμικού: ταχύτερα, φθηνότερα και σε μεγαλύτερη κλίμακα. Αυτό θα είναι άκρως αποσταθεροποιητικό τόσο σε εθνικό όσο και σε διεθνές επίπεδο, διότι εισάγει τις απειλές της διάδοσης, της ταχείας κλιμάκωσης, της απρόβλεπτης εξέλιξης, ακόμη και της πιθανότητας όπλων μαζικής καταστροφής.