Bitcoin Forum
November 10, 2024, 11:46:37 AM *
News: Latest Bitcoin Core release: 28.0 [Torrent]
 
   Home   Help Search Login Register More  
Pages: [1]
  Print  
Author Topic: Когда умные машины нарушают закон  (Read 539 times)
EvilClown (OP)
Legendary
*
Offline Offline

Activity: 966
Merit: 1000


View Profile
July 03, 2015, 11:18:39 AM
 #1

Когда умные машины нарушают закон

• 2015/07/03   

Гуру криптографии и информационной безопасности Брюс Шнайер отвечает на вопрос сайта Edge.com: «Что вы думаете о машинах, которые думают?» Шнайер считает, что современная правовая система не готова к появлению автономных машин, которые сами принимают решения и, скорее всего, будут нарушать закон. Как можно наказать машину?

В прошлом году двое художников из Швейцарии создали бота Random Botnot Shopper. Бот — компьютер с соответствующим ПО — каждую неделю тратил эквивалент 100 долларов в биткойнах на случайные покупки на анонимных торговых площадках. Это было сделано как арт-проект для выставки в Швейцарии. Умная идея, кроме одной проблемы. По большей части бот покупал вполне легальные вещи — поддельные джинсы Diesel, бейсболку со встроенной скрытой камерой, пару кроссовок Nike… Но помимо этого он купил десять таблеток экстази и поддельный венгерский паспорт.

12 января 2015 года, на следующий день после закрытия выставки, длившейся три месяца, бот был «арестован», то есть конфискован правоохранительными органами.

Что делать, если машина нарушила закон? Традиционно мы в таком случае обвиняем владельца машины. Люди совершают преступления; оружие, отмычка и компьютерный вирус — всего лишь их инструменты. Но по мере того, как машины становятся всё более автономными, связь между машиной и её создателем становится всё тоньше.

Кто виноват, если автономный военный дрон случайно убьёт многочисленных мирных жителей? Военный, ответственный за операцию? Программист, написавший программу распознавания врага, которая дала сбой? Автор конкретного участка кода, отдавшего приказ убивать? А что если программист и понятия не имеет, что его программа используется в военных целях? Что если дрон может сам улучшать собственные алгоритмы на основе данных, собранных другими дронами в прошлых операциях?

Может, наши суды и могут решить, кто здесь виноват, но только потому, что современные дроны, даром что автономны, не слишком умны. А что если они станут умными и автономными одновременно и будут принимать как тактические, так и стратегические решения? Что если дрон на основе имеющихся данных решит предать сторону, построившую его, и начнёт ей вредить?

Общество выработало множество способов — неформальных социальных правил и более формальных законов — чтобы разрешать ситуации неподчинения правилам общежития. Для мелких нарушений у нас есть неформальные механизмы, для более серьёзных — сложная правовая система. Если вы буяните на моей вечеринке, я больше вас не позову. Если вы регулярно нарушаете правила приличия, вас застыдят и подвергнут осуждению. Если вы украдёте у меня что-то, я обращусь в полицию. Попробуйте ограбить банк — и с большой вероятностью вы надолго сядете в тюрьму. Эти правила могут выглядеть несистематизированными, но человечество потратило тысячелетия, чтобы выработать их. Безопасность — понятие одновременно политическое, социальное и психологическое. Например, дверные замки работают только потому, что система неформальных и юридических запретов на кражу делает большинство из нас честными. Таким образом, мы относительно мирно сосуществуем в масштабах, невозможных для любого другого вида на планете.

Как это будет работать, если нарушитель — машина со свободой воли, что бы это ни значило? Машины не понимают ни стыда, ни похвалы. Они не откажутся от каких-то действий только потому, что другие машины что-то об этом подумают. Они не будут соблюдать законы просто потому, что так правильно, и не будут испытывать уважение к авторитетам. Если мы поймаем машину за кражей, как её наказать? Что такое «оштрафовать» машину? Имеет ли смысл лишать машину свободы? Если в машину не заложен инстинкт самосохранения, то даже угроза казни не будет работать.

Вот мы уже говорим о программировании человеческих моральных принципов. Даже если это в принципе осуществимо, мы наверняка где-то ошибёмся, и рано или поздно машины будут нарушать закон.

Это, в свою очередь, поставит под угрозу нашу правовую систему. По сути, она не предотвращает преступления. Её эффективность основана на аресте и наказании преступников постфактум. Наказание должно влиять на мотивацию будущих преступников. Эта схема полностью бесполезна, если эффективного наказания нет.

После атак 11 сентября многие задумались о террористах-смертниках, для которых любое наказание бессмысленно. Это только один пример, изменивший наши взгляды на безопасность. Тот же вопрос возникнет для машин-преступников. Появятся и другие проблемы, которые пока сложно представить. Социальная и правовая системы, успешно справлявшиеся с людьми-преступниками, потерпят неудачу в борьбе с машинами.

Умная машина никогда не думает в точности так, как мы ожидаем. И к последствиям этого факта мы не готовы.

Автор: Брюс Шнайер

http://bitnovosti.com/2015/07/03/schneier-when-thinking-machines-break-the-law/
bokr57
Legendary
*
Offline Offline

Activity: 1540
Merit: 1004


GIGZI - INDEPENDENT WEALTH MANAGEMENT


View Profile
July 03, 2015, 12:10:43 PM
 #2

Умная машина никогда не думает в точности так, как мы ожидаем. - машины не думают. они действуют в рамках заданных программно условий.



████████████▀████▄████████████████▀███▀████████████████▄█
███▀▀▀▀▀▀▀▀██████████████▀▀▀▀▀▀▀▀███████▀▀▀▀▀▀▀▀█████████
█████████████████████████████████████████████████████████
█████████████████████████████████████████████████████████
██████▀█████████████████████▀████████████████████████████
████████▀▀████████████████████▀▀█████████████████████████
██████████████████████████████████████▄▄▄▄▄▄▄▄▄▄▄▄▄██████
█████████████████████████████████████████████████▀███████
      |                  |                  |            
in100
Legendary
*
Offline Offline

Activity: 1200
Merit: 1021



View Profile
July 03, 2015, 12:12:54 PM
 #3

Напомнило "Дюну" Фрэнка Герберта. Мыслящие машины были запрещены.

1BTCin1ooigFtHHD82qquqysdfxFZGdd8a  |  LTCin1oo9JhxcZu8ZK5HivqwvzAdQSaoua  |  4NVCin1ooAd2XKoEfEhBn6tYNUHhojf4QS
Блокчейн биткоина с его алгоритмом децентрализованного консенсуса на самом деле неэффективен, но неэффективность – это та цена, которую мы платим за свободу.© Andreas Antonopoulos
CryptInvest
Legendary
*
Offline Offline

Activity: 2156
Merit: 1132


View Profile
July 03, 2015, 12:40:50 PM
 #4

Переложить ответственность на создателя. Азимов уже заранее решил проблему 3мя законами робототехники. Наверное будут какие то стандарты для робототехники международные.
bokr57
Legendary
*
Offline Offline

Activity: 1540
Merit: 1004


GIGZI - INDEPENDENT WEALTH MANAGEMENT


View Profile
July 03, 2015, 01:03:44 PM
 #5

Переложить ответственность на создателя. - при данном развитии науки и техники никак иначе, машина делает то, что укажет создатель.



████████████▀████▄████████████████▀███▀████████████████▄█
███▀▀▀▀▀▀▀▀██████████████▀▀▀▀▀▀▀▀███████▀▀▀▀▀▀▀▀█████████
█████████████████████████████████████████████████████████
█████████████████████████████████████████████████████████
██████▀█████████████████████▀████████████████████████████
████████▀▀████████████████████▀▀█████████████████████████
██████████████████████████████████████▄▄▄▄▄▄▄▄▄▄▄▄▄██████
█████████████████████████████████████████████████▀███████
      |                  |                  |            
diks
Legendary
*
Offline Offline

Activity: 2632
Merit: 1450



View Profile
July 05, 2015, 03:13:33 PM
 #6

Переложить ответственность на создателя. - при данном развитии науки и техники никак иначе, машина делает то, что укажет создатель.

подразумевается, все-же, некая "свободная воля"
т.е. принятие решений без программы, а на основе анализа и нахождения приоритета
пойти влево или вправо - убить человека или нет
и что из этого будет проще совершить с максимальной выгодой

может для экономии батарейки когданить пылесосу со "свободной волей" будет проще завалить человека, отдавшего команду
а закон робототехники пойдет побоку - т.к. батареек больше нет

bitmonstr
Member
**
Offline Offline

Activity: 105
Merit: 117


View Profile
July 05, 2015, 03:18:23 PM
 #7


подразумевается, все-же, некая "свободная воля"
т.е. принятие решений без программы, а на основе анализа и нахождения приоритета
пойти влево или вправо - убить человека или нет
и что из этого будет проще совершить с максимальной выгодой

может для экономии батарейки когданить пылесосу со "свободной волей" будет проще завалить человека, отдавшего команду
а закон робототехники пойдет побоку - т.к. батареек больше нет

Современные роботы-пылесосы уже умеют сами себе заряжать батарейкиSmiley И был случай где-то в Азии робот-пылесос напал на спящую хозяйку и засосал у неё одежду и пытался сожрать бабку.
diks
Legendary
*
Offline Offline

Activity: 2632
Merit: 1450



View Profile
July 05, 2015, 03:56:37 PM
 #8


Современные роботы-пылесосы уже умеют сами себе заряжать батарейкиSmiley И был случай где-то в Азии робот-пылесос напал на спящую хозяйку и засосал у неё одежду и пытался сожрать бабку.

обчем и гундос
скайнет уже разлил масло Grin Grin

Pages: [1]
  Print  
 
Jump to:  

Powered by MySQL Powered by PHP Powered by SMF 1.1.19 | SMF © 2006-2009, Simple Machines Valid XHTML 1.0! Valid CSS!