Paketo Blog

Το φάγαμε το πακέτο πατριώτη!

«Σύστημα ενοχής» θα εμποδίζει τα πολεμικά ρομπότ να βλάπτουν αθώους

Posted by paketo στο 12/07/2009

Τα ρομπότ του πολέμου σύντομα θα γνωρίζουν από μόνα τους την πολεμική νομοθεσία και τους κανόνες εμπλοκής και θα νιώθουν ένοχα όταν βλάπτουν αθώους πολίτες, ελπίζουν μηχανικοί και προγραμματιστές που εργάζονται για λογαριασμό του αμερικανικού Πενταγώνου.

«Αποφασίσαμε ότι είναι σημαντικό να ενσωματώσουμε σε αυτά τα συστήματα το ηθικό συναίσθημα της ενοχής» αναφέρει σε συνέντευξή του στο CNet ο Ρόναλντ Αρκιν του Ινστιτούτου Τεχνολογίας της Τζόρτζια, ο οποίος μόλις ολοκλήρωσε ένα τριετές ερευνητικό πρόγραμμα για λογαριασμό του στρατού το οποίο αφορά το λογισμικό των ηθικών ρομπότ.

Η προσπάθεια της ομάδας του Αρκιν μοιάζει να κινείται στο χώρο της…

επιστημονικής φαντασίας, ίσως όμως αποδειχθεί τελικά μεγάλης σημασίας, καθώς το αμερικανικό Κογκρέσο έχει θέσει στόχο το ένα τρίτο των επιθετικών αεροσκαφών να είναι μη επανδρωμένο έως το 2010 και το ένα τρίτο των επίγειων οχημάτων μάχης να είναι μη επανδρωμένα ως το 2015.

Δεδομένου ότι τα ρομπότ ήδη χρησιμοποιούνται ευρέως στο πεδίο της μάχης, το ζήτημα της απόδοσης ευθυνών όταν υπάρχουν παράπλευρες απώλειες αποκτά όλο και μεγαλύτερη σημασία.

«Έχουμε ενσωματώσει ένα σύστημα που ονομάζεται ‘προσαρμογέας ηθικής’, μελετώντας τα ανθρώπινα μοντέλα ενοχής και εισάγοντας τα ένα ρομποτικό σύστημα».

Τα πολεμικά ρομπότ θα γνωρίζουν πότε είναι νόμιμο και σκόπιμο να εξουδετερώσουν στόχους και μπορούν τελικά «να αρνηθούν να χρησιμοποιήσουν ορισμένες κατηγορίες όπλων ή να αρνηθούν να χρησιμοποιήσουν οποιοδήποτε όπλο, εάν φτάσει σε ένα σημείο στο οποίο οι προβλέψεις του υπερβαίνουν τις ίδιες του τις προδιαγραφές» εξηγεί ο Αρκιν.

Τα ρομπότ, εξηγεί, θα γνωρίζουν τι πρέπει να κάνουν επειδή θα είναι προγραμματισμένα με επίσημους κανόνες εμπλοκής, τη διεθνή πολεμική νομοθεσία και διεθνείς συμβάσεις όπως η Συνθήκη της Γενεύης.

Δεδομένου όμως ότι οι στρατιωτικοί δεν θα ενθουσιάζονταν με ένα ηθικό ρομπότ που αρνείται να εκτελέσει διαταγές, οι ερευνητές αναγκάστηκαν να ενσωματώσουν στο σύστημα και χειροκίνητο έλεγχο προτεραιότητας.

Ο Αρκιν αναφέρει ότι το τριετές συμβόλαιό του με το Γραφείο Έρευνας του αμερικανικού στρατού έχει ήδη οδηγήσει στο πρωτότυπο του λογισμικού ηθικής. Διευκρινίζει πάντως ότι το σύστημα απέχει πολύ από το να χρησιμοποιηθεί στη μάχη.

Advertisements

Sorry, the comment form is closed at this time.

 
Αρέσει σε %d bloggers: