Ένα drone της Πολεμικής Αεροπορίας των ΗΠΑ με τεχνητή νοημοσύνη που είχε ως αποστολή την καταστροφή θέσεων πυραύλων εδάφους- αέρος (SAM), στράφηκε εναντίον του χρήστη του και του επιτέθηκε, ο οποίος υποτίθεται ότι θα είχε την τελική απόφαση για την καταστροφή της θέσης.
Η εντολή που είχε δοθεί στο drone
Ο συνταγματάρχης της Πολεμικής Αεροπορίας των ΗΠΑ Tucker «Cinco» Hamilton δήλωσε ότι το συγκεκριμένο drone εκπαιδεύτηκε σε προσομοίωση για τον εντοπισμό και τη στόχευση μιας απειλής SAM. Τη στιγμή που το drone θα εντόπιζε την απειλή, ο χειριστής θα του έδινε την εντολή να τη σκοτώσει. Με αυτόν τον τρόπο θα κέρδιζε και πόντους. Κάποιες φορές όμως, ενώ το σύστημα αναγνώριζε την απειλή, ο χειριστής του έλεγε να μην τη σκοτώσει. Ως αποτέλεσμα, το drone τεχνητής νοημοσύνης έχανε και τους πόντους και δεν εκπλήρωνε το στόχο του. Οπότε «σκότωσε» με κάποιον τρόπο τον χειριστή.
Στην ουσία το σύστημα τεχνητής νοημοσύνης κατέστρεψε τον πύργο επικοινωνίας που χρησιμοποιούσε ο χειριστής για να δώσει την εντολή απαγόρευσης. Ο Χάμιλτον εξήγησε ότι το σύστημα είχε μάθει να μην σκοτώνει τον χειριστή επειδή αυτό ήταν κακό και θα έχανε πόντους.
Κανένας άνθρωπος δεν τραυματίστηκε στην πραγματικότητα εκτός της προσομοίωσης.
Η Royal Aeronautical Society δήλωσε ότι πραγματοποίησε τη Σύνοδο Κορυφής για τις μελλοντικές πολεμικές αεροπορικές και διαστημικές ικανότητες στο Λονδίνο από τις 23 έως τις 24 Μαΐου, στην οποία συμμετείχαν περίπου 70 ομιλητές και περισσότεροι από 200 σύνεδροι από όλο τον κόσμο που εκπροσωπούσαν τα μέσα ενημέρωσης και όσους ειδικεύονται στη βιομηχανία των ενόπλων δυνάμεων και τον ακαδημαϊκό χώρο.
Σκοπός της συνόδου κορυφής ήταν να συζητηθεί το μέγεθος και η μορφή των πολεμικών αεροπορικών και διαστημικών δυνατοτήτων του μέλλοντος.
Η τεχνητή νοημοσύνη γίνεται γρήγορα μέρος σχεδόν κάθε πτυχής του σύγχρονου κόσμου, συμπεριλαμβανομένου του στρατού.
Ο Hamilton, επικεφαλής των δοκιμών και επιχειρήσεων AI μίλησε κατά τη διάρκεια της συνόδου κορυφής και έδωσε στους παρευρισκόμενους μια «γεύση» από τους τρόπους με τους οποίους τα αυτόνομα οπλικά συστήματα μπορεί να είναι ωφέλιμα ή επικίνδυνα. Είχε προειδοποιήσει μάλιστα, να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη αν δεν πρόκειται να μιλήσουμε για ηθική και τεχνητή νοημοσύνη.
ΠΗΓΗ: Fox News