Robotické

Zabijaci roboti mohli spôsobiť masové zverstvá

Zabijaci roboti mohli spôsobiť masové zverstvá



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Roboty sa budú v budúcnosti využívať ako vojaci. V skutočnosti už sú niektorí roboti a drony nasadení armádou. Inteligentné a autonómne roboty naprogramované ľuďmi na zameranie a zabíjanie by mohli v budúcnosti páchať trestné činy. Pokiaľ však neexistuje zmluva o zodpovednom používaní robotiky a umelej inteligencie (AI).

To, že máme k dispozícii technológiu, ktorá dokáže stavať robotov, ktorí zabíjajú, ešte neznamená, že ju musíme používať. Ako raz povedal Spidermanov strýko, „s veľkou mocou prichádza aj veľká zodpovednosť“.

Odborníci na strojové učenie a vojenské technológie tvrdia, že by bolo technologicky možné vyrobiť roboty, ktoré rozhodujú o tom, koho zamerať a zabiť, bez zapojenia ľudského kontrolóra. Pretože algoritmy rozpoznávania tváre a rozhodovania sú čoraz výkonnejšie, dosiahnutie tohto druhu robotov by bolo jednoduchšie.

Riziká zabijáckych robotov

Vedci v oblasti umelej inteligencie a verejnej politiky sa snažia dokázať, že vraždiace roboty sú zlým nápadom v skutočnom živote. Vytvorenie plne autonómnych zbraní by prinieslo nové technické a morálne dilemy.

Vedci a aktivisti z tohto dôvodu tlačili na OSN a svetové vlády, aby uznali problém a zvážili preventívny zákaz.

Môže sa AI použiť ako zbraň?

Krátka odpoveď je, že áno. Rovnako ako každá iná existujúca technológia, aj umelá inteligencia môže byť použitá na dobré, ale aj na zabíjanie. Rozpoznávanie tváre a rozpoznávanie objektov sú technológie, ktoré sa za posledných pár rokov zlepšili. Dalo by sa povedať, že sa stali oveľa presnejšími, napriek tomu zďaleka nie sú dokonalé.

Rozpoznávanie tváre a rozpoznávanie objektov sú zručnosti, ktoré sa pravdepodobne stanú nevyhnutnými ako súčasť súboru nástrojov pre smrtiace autonómne zbrane (ZÁKONY). Je však tiež veľmi ľahké tieto technológie oklamať, ak ich niekto skutočne chce oklamať.

Vojenské roboty: Súčasnosť a budúcnosť

Vojenské roboty sú diaľkovo ovládané autonómne roboty alebo drony, ktoré boli navrhnuté pre vojenské aplikácie. Vojenské roboty môžu byť použité na dopravu, pátranie a záchranu a tiež na útoky s implikáciou zabitia ľudí a dokonca zničenia miest.

Niektoré z týchto systémov sú v súčasnosti nasadené a niektoré sú vo vývoji. Niektoré vojenské roboty sú vyvíjané pod prísnym tajomstvom, aby sa zabránilo iným dozvedieť sa o ich existencii.

USA už lietajú vojenské drony nad oblasťami, kde sú USA vo vojne alebo zapojené do vojenských operácií. O tom, kedy tieto drony vystrelia, zatiaľ rozhodujú ľudskí kontrolóri.

Aj keď smrteľné autonómne zbrane (ZÁKONY) ešte celkom neexistujú, alebo - čo si myslíme - technológia, ktorá nahradí ľudské ovládače algoritmom, ktorý rozhoduje o tom, kedy a čo strieľať, skutočne existuje. Niektorí vedci v oblasti AI sa domnievajú, že ZÁKONY vo forme malých dronov by mohli byť použité ako zbrane za menej ako dva roky.

Zatiaľ čo dnešné drony prenášajú obrazovú spätnú väzbu na vojenskú základňu, kde sa ľudský vojak rozhoduje, či má dron vystreliť na cieľ alebo nie, s plne autonómnou zbraňou vojak toto rozhodnutie už neurobí. Namiesto toho by urobil rozhodnutie algoritmus.

Letálne autonómne zbrane (ZÁKONY): Sú ľudia ohrození?

Éra strojovo riadenej vojny nie je príliš ďaleko do budúcnosti. Armáda experimentuje s robotmi, ktorí môžu byť súčasťou bojiska a môžu sa používať ako vražedné zbrane. Vojny budúcnosti potom môžu byť napúšťané viac high-tech a menej ľudskými. Aké dôsledky by to malo pre ľudstvo?

Riziko, ktoré predstavujú smrtiace autonómne zbrane (ZÁKONY), známe tiež ako vražedné roboty, je skutočné. Niektorí výskumníci v oblasti umelej inteligencie (AI) majú veľa dôvodov na podporu svojho konsenzu, že svet by mal zakázať vývoj a rozmiestnenie smrtiacich autonómnych zbraní.

Dôvod je dosť jednoduchý, vojenské sily by mohli pomerne lacno hromadne vyrobiť armádu vražedných robotov. Ľudstvo však mohlo zaplatiť vysokú cenu; výroba a aktivácia vražedných robotov by zvýšila pravdepodobnosť šírenia a hromadného zabíjania.

Zabijaci roboti: Za každú činnosť, ktorú robot urobí, je vždy zodpovedný človek

V tejto chvíli sa vynára otázka, kto by mal byť zodpovedný za činnosť robota? A aká roboetika by sa mala použiť na smrtiace autonómne roboty? Počas vojny alebo dokonca aj počas menšieho konfliktu sa vám veci môžu vymknúť spod kontroly. Mali by zabijaci roboti prevziať úplnú kontrolu?

Roboty určené na použitie vo vojnovom konflikte ako mechanické zbrane zabudované do umelej inteligencie a strojového učenia by mali mať nejaký vypínač.

Dnes predstavujú tri zákony robotiky Isaaca Asimova viac problémov a konfliktov pre robotikov, ako ich vyriešia.

Robotici, filozofi a inžinieri vidia pokračujúcu debatu o etike strojov. Strojová etika - alebo roboetika - je praktický návrh, ako súčasne navrhnúť a poskytnúť etické sankcie pre roboty.

Roboethics sa zaoberá kódexom správania, ktorý musia robotickí konštruktéri implementovať do umelej inteligencie robota. Kto alebo za čo bude niesť zodpovednosť, keď alebo ak autonómny systém zlyhá alebo poškodí človeka?

Tri zákony robotiky: Mali by sa uplatňovať na vraždiace roboty?

V roku 1942 uviedol autor sci-fi Isaac Asimov vo svojej poviedke Tri zákony robotiky - tiež známe ako Asimovove zákony - Pobehovať. Aj keď boli Asimovove tri zákony robotiky súčasťou fiktívneho sveta, dnes by mohli byť dobrým východiskovým bodom pre programovanie robotov.

Skôr ako vlády nasadia smrtiace autonómne zbrane, mali by sa ubezpečiť, že môžu zabrániť zabijáckym robotom určeným na nasadenie vo vojnových zónach v tom, aby sami zahájili vojnu alebo spôsobili masové zverstvá, ako je zabíjanie civilistov.

Niekto si môže myslieť, že nasledujúce zákony robotiky idú proti tomu, čo by mal robiť vojak. Možno to je koniec koncov hlavný bod. Inými slovami, možno by človek nemal dať špinavú prácu stroju, ktorý ešte nie je schopný individualizovať situácie a urobiť úsudok.

  • Robot nemusí človeka zraniť alebo môže svojou nečinnosťou umožniť človeku ublížiť

  • Robot sa musí riadiť príkazmi vydanými ľuďmi, s výnimkou prípadov, keď by boli v rozpore s Prvým zákonom

  • Robot musí chrániť svoju vlastnú existenciu, pokiaľ takáto ochrana nie je v rozpore s prvým alebo druhým zákonom

Zastavte roboty zabijakov

Kampaň vedie ku koalícii mimovládnych organizácií Stop Killer Robots, ktorá sa snaží preventívne zakázať smrtiace autonómne zbrane (ZÁKONY).

Generálny tajomník Organizácie Spojených národov (OSN) vo svojej správe o ochrane civilného obyvateľstva v ozbrojených konfliktoch z roku 2020 vyzval štáty, aby sa urýchlene zaoberali obavami zo smrtiacich autonómnych zbraňových systémov. Toto je prvá správa OSN o ochrane civilistov od roku 2013, ktorá zdôrazňuje všeobecné obavy týkajúce sa zabijakových robotov.

V správe za rok 2020 generálny tajomník António Guterres uvádza, že „všetky strany sa zhodujú v tom, že je nevyhnutné minimálne zachovanie ľudskej kontroly alebo úsudku nad použitím sily“. Poznamenáva tiež, že „rastúci počet členských štátov požadoval zákaz ZÁKONOV“. Od novembra 2018 generálny tajomník OSN opakovane vyjadril svoje želanie po novej medzinárodnej zmluve o zákaze vrahových robotov.

Kampaň zameraná na zastavenie robotov zabíjajúcich chváli OSN, aby naliehala na štáty, aby sa dohodli na „obmedzeniach a povinnostiach, ktoré by sa mali vzťahovať na autonómiu zbraní“. Štáty by mali teraz začať rokovania o novej medzinárodnej zmluve o zákaze úplne autonómnych zbraní pri zachovaní zmysluplnej ľudskej kontroly nad použitím sily.

Ako zabiť robota

Výrobcovia smrtiacich autonómnych robotov s najväčšou pravdepodobnosťou dodávajú svoje vraždiace roboty s príručkou s pokynmi, v ktorých je možnosť diaľkového vloženia bezpečnostného kódu na deaktiváciu zabijacieho robota.

Ak to nie je možné, spoľahlivým spôsobom, ako zabiť robota, by bolo použitie elektromagnetického impulzu (EMP) na indukciu vysokého prúdu, ktorý by spálil obvody robota. Samozrejme sa to predpokladá, že vrahový robot nie je chránený Faradayovou klietkou.


Pozri si video: Роботы-пожарные - Эпизоды 17-26 - Сборник - Премьера сериала- Мультфильм про роботов и пожарных (August 2022).