Microdrones Lead
Distribuie articolul:

SUA, China, Israel și alții dezvoltă drone ucigașe cu inteligență artificială; aceasta prezintă riscuri semnificative

Evoluțiile recente ale Pentagonului în tehnologia AI au atras îngrijorare și critici pe măsură ce se apropie de implementarea sistemelor de arme AI autonome capabile să ia decizii letale în mod independent.

New York Times raportează că țări precum Statele Unite, China și Israel lucrează în mod activ la arme autonome letale împuternicite de inteligența artificială („AI”), care pot identifica și angaja în mod autonom ținte.

Criticii susțin că utilizarea dronelor controlate de AI cu capacitatea de a ucide oameni în mod autonom este o dezvoltare extrem de alarmantă, deoarece plasează alegeri pe viață sau pe moarte pe mașini cu supraveghere umană minimă. Mai multe țări, printre care Rusia, Australia și Israel, se opun eforturilor altor națiuni de a adopta o rezoluție obligatorie în cadrul Națiunilor Unite care solicită interzicerea dronelor ucigașe cu inteligență artificială.

Problema cu desfășurarea armelor inteligenței artificiale a stârnit dezbateri intense, cu întrebări cheie care se învârt în jurul rolului agenției umane în utilizarea forței. Negociatorul-șef al Austriei pe această temă, Alexander Kmentt, a subliniat că această problemă nu este doar o problemă de securitate și legală, ci și una etică.

Între timp, Pentagonul a dezvăluit planuri de a desfășura roiuri de drone cu AI, ca parte a programului lor de arme AI. Aceste drone, echipate cu capabilități avansate de inteligență artificială, sunt menite să ofere Statelor Unite un avantaj tactic, contracarând superioritatea numerică a Armatei de Eliberare a Chinei.

Secretarul adjunct al Apărării al SUA, Kathleen Hicks, a subliniat în continuare rolul roiurilor de drone controlate de AI în remodelarea dinamicii câmpului de luptă, făcându-le mai greu de planificat, lovit și înfrânt. Cu toate acestea, apar preocupări în ceea ce privește supravegherea umană și capacitățile de luare a deciziilor, deoarece unii susțin că limitările autonomiei AI ar putea împiedica avantajele strategice.

Criticii subliniază, de asemenea, incidente recente în care dronele AI au fost utilizate în zonele de conflict, cum ar fi utilizarea de către Ucraina a dronelor controlate de AI în timpul conflictului cu Rusia. Amploarea victimelor umane cauzate de aceste drone AI rămâne incertă, ridicând îngrijorări suplimentare.

Grupuri de advocacy precum Campaign to Stop Killer Robots avertizează că dezumanizarea tehnologiei AI prezintă riscuri semnificative. Această dezumanizare nu numai că ar putea avea un impact asupra utilizării forței, dar ar putea pătrunde și în alte aspecte ale vieții noastre, extinzându-se la automatizarea în forțele de ordine, casele inteligente și nu numai. Campania subliniază necesitatea urgentă a unui tratat global care să interzică armele autonome pentru a preveni ca producția și proliferarea pe scară largă a acestor tehnologii să cadă potențial în mâini greșite.

Imagine prezentată: dronele militare din Coreea de Sud zboară în formație în timpul unui exercițiu militar comun cu SUA la Seungjin Fire Training Field din Pocheon, pe 25 mai 2023. Sursa: Business Insider

Featnov26a

Sursa expose-news.com

Distribuie articolul:

Lasă un răspuns