Запретить на международном уровне роботам убивать людей требуют в ООН

|
Версия для печатиВерсия для печати
Запретить работам убивать людей — требуют в ООН. На днях специальный докладчик ООН по вопросу внесудебных казней присоединился к призывам общественности ввести мораторий на так называемых «роботов-убийц». Речь идет об автоматизированных военные системы, которые, по мнению критиков, однажды смогут действовать — то есть убивать — без контроля со стороны человека. Активисты настаивают, что речь идет не об отдаленной перспективе, а мрачной реальности, о которой обычные люди не имеют представления.
 
Как сообщает ukrainian.voanews., в прошлом месяце в британский парламент пришли работы. Таким образом организаторы акции пытались привлечь внимание к новой угрозе человечеству — роботам, которые способны убивать.
 
Среди участников — известные правозащитники. Американка Джоди Уильямс в 1997 году получила Нобелевскую премию мира за участие в кампании за запрет противопехотных мин.
 
«Нам необходима дискуссия относительно технологий, которые полностью изменят войну. Я не согласна и возмущена тем, что правительство моей страны называет эти изменения путем к бескровным войнам», — предупреждает правозащитница.
 
Сейчас в США проходят испытания X-47B — одного из самых боевых беспилотников, или дронов, созданных человечеством. Стремительную эволюцию этих аппаратов в последнее время можно сравнить с индустриальной революцией 19-го века. Изменение способа ведения войн радикально изменит жизнь человечества — предсказывают эксперты.
 
«Кто будет определять, кого убивать? Мы обеспокоены, что работы будут принимать эти решения автономно. Мы настаиваем на сохранении человеческого контроля», — говорит Ноэль Шарки, исследователь робототехники и искусственного интеллекта.
 
Некоторые эксперты считают, что стремительное развитие технологий уже позволяет говорить, что воевать работы будут лучше людей, да и решения о жизни и смерти принимать ответственно.
 
«Машины имеют такое количество информации по мишени, которую раньше невозможно было представить. Они следят за целью непрерывно часами, а иногда днями. На базе этих наблюдений они создают модель поведения объекта, на основе которой могут принимать решение о необходимости атаки. Впрочем понятно , что они не могут заглянуть в голову человеку и даже машина не гарантирует отсутствие жертв среди гражданских », - убежден Кристофер Кокре из Лондонской школы экономики.
 
Компания Samsung Techwin уже предлагает заинтересованным приобрести робота-часового. Он снабжен сенсорными камерами и пулеметом. Управление осуществляет человек.
 
«Автономную машину нельзя привлечь к ответственности за убийство. Она не имеет морали. Так кто будет отвечать за ошибки? Человек-командующий группой подобных роботов? Но это не справедливо, ведь с роботами может произойти множество технических проблем», — говорит Шарки.

В тему:

 


Читайте «Аргумент» в Facebook и Twitter

Если вы заметили ошибку, выделите ее мышкой и нажмите Ctrl+Enter.

Важно

Как эффективно контролировать местную власть

Алгоритм из 6 шагов поможет каждому контролировать любых чиновников.

Как эффективно контролировать местную власть

© 2011 «АРГУМЕНТ»
Републикация материалов: для интернет-изданий обязательной является прямая гиперссылка, для печатных изданий - по запросу через электронную почту. Ссылки или гиперссылки, должны быть расположены при использовании текста - в начале используемой информации, при использовании графической информации - непосредственно под объектом заимствования. При републикации в электронных изданиях в каждом случае использования вставлять гиперссылку на главную страницу сайта www.argumentua.com и на страницу размещения соответствующего материала. При любом использовании материалов не допускается изменение оригинального текста. Сокращение или перекомпоновка частей материала допускается, но только в той мере, в какой это не приводит к искажению его смысла.
Редакция не несет ответственности за достоверность рекламных объявлений, размещенных на сайте а также за содержание веб-сайтов, на которые даны гиперссылки. 
Контакт:  uargumentum@gmail.com