SUA a folosit deja intensiv roboti de lupta in timpul razboiului din Irak, cum ar fi avioanele fara pilot de tip Hunter, care lansau atacuri nimicitoare cu rachete asupra ascunzatorilor inamice, sau robotii SWORD dotati cu mitraliere, care patruleaza pe strazile din Irak.
Trasatura cheie a acestor ucigasi robotici este faptul ca au nevoie de un operator uman care apasa tragaciul. Cu toate acestea, exista ideea printre cercurile militare, ca pe viitor robotii sa fie complet autonomi, luptandu-se cu inamicii fara nici o interventie umana. Problema legalitatii si a moralitatii acestor roboti a fost unul din subiectele discutate la conferinta de la Institutul Regal pentru Studii de Aparare si Securitate, care a avut loc pe data de 27 Februarie la Londra.
Intrebare "Poate un robot sa comita o crima de razboi?" a fost pusa in timpul conferintei. Ideea ca robotii s-ar putea defecta, si ar putea lua in colimator civili sau soldati aliati reprezinta un gand inspaimantator pentru multi militari.
Inginerul englez Chris Elliot si-a dat cu parerea privind legalitatea robotilor de lupta autonomi in raport cu legile internationale. El a subliniat faptul
Ideea ca un robot sa fie acuzat de crima ridica intrebari provocatoare asupra pedepselor si impartialitatea unor astfel de masuri. Elliot a incercat sa explice ca in momentul de fata exista o povara legala asupra deciziei oamenilor de a desfasura pe campul de lupta sisteme care nu poseda suficienta putere de judecata. El a declarat, "Armele incapabile sa faca diferenta dintre tinte civile si cele militare sunt ilegale".
Elliot sustine ideea ca astfel de roboti autonomi sa fie permisi pe campul de lupta numai dupa ce trec de un test "Turing militar", "Asta inseamna ca un sistem de lupta autonom sa nu ia decizii mai proaste decat ar face un om [referitor la tintele valide]".
Testul Turing original a fost dezvoltat de Alan Turing, care sustinea ca daca un om nu isi poate da seama intr-o conversatie dintre o fiinta umana si un robot, care dintre participantii la discutie este masinaria, atunci inseamna ca robotul implicat in conversatie a atins nivelul de inteligenta artificiala.
Elliot nu a fost in masura sa declare cand si cum ar putea fi un astfel de test administrat, spunand simplu "Daca nu atingem acest punct, nu vom fi capabili din punct de vedere legal sa desfasuram astfel de sisteme autonome. Legalitatea este o bariera majora".
Bill Boothby, de la Ministerul Apararii al Marii Britanii, are o perspectiva diferita fata de cea a lui Elliot. Daca situatia va fi controlata cu grija, un robot de lupta autonom nici nu ar trebui sa fie asa de inteligent cat ar necesita testul propus de Elliot. Boothby spera ca prin scaderea cerintelor operationale, robotii autonomi ar putea sa asiste soldatii pe campul de lupta intr-un viitor foarte apropiat.
Boothby a argumentat ca, intr-un fel, operatorii umani nu reprezinta neaparat un beneficiu, ei avand rolul doar de a aproba deciziile automate pe care le ia robotul referitor la tinte.. Comentariile lui Boothby au fost seducatoare pentru multi comandanti militari care isi doresc desfasurarea cat mai rapida a masinariilor cum ar fi varianta 100% autonoma a robotului SWORD sau a robotului MAARS, dezvoltat de firma Foster-Miller.
Diferenta de opinii dintre Elliot si Boothby este reprezentativa pentru sentimentele contradictorii ale societatii privind desfasurarea pe campul de lupta a masinariilor de ucis care opereaza independent. Inca exista multe temeri in mintile publicului, unele realiste, bazate pe evaluarile limitarilor practice, iar altele fantastice, bazate pe cultura filmelor din seria Terminator. Problema va deveni si mai controversata odata cu trecerea timpului si cu aparitia noilor realizari tehnologice…