Bitcoin Forum
April 24, 2024, 12:13:50 PM *
News: Latest Bitcoin Core release: 27.0 [Torrent]
 
   Home   Help Search Login Register More  
Pages: [1]
  Print  
Author Topic: Почему мы неправильно воспринимаем искус  (Read 770 times)
rikko72 (OP)
Hero Member
*****
Offline Offline

Activity: 1022
Merit: 543



View Profile
November 01, 2015, 01:30:57 PM
 #1

Почему мы неправильно воспринимаем искусственный интеллект

Когда мы говорим об ИИ, разговор неизбежно переходит в разряд фантастических сценариев, мол, если ИИ не заберет все наши рабочие места, то убьет нас всех. Но по правде говоря, ИИ существует уже почти 60 лет, все больше и больше проникая в каждую часть нашей жизни. Наши ИИ могут считывать ваши эмоции, решать сложные геометрические вопросы, рисовать картины, как Винсент Ван Гог.

Игнорируя то, что на самом деле было создано и используется в настоящее время, и вместо этого сосредоточившись на версии ИИ, которая еще не прибыла, человечество обзавелось слепым пятном в этой технологии.

Это слепое пятно искажает наше понимание ИИ, его полезность и прогресс, который был достигнут в этой области. Оно также приносит нам много разочарования, когда появляющийся ИИ не работает, как мы предполагали. У этого явления есть название — эффект ИИ.

У эффекта ИИ две фазы. Первая: люди не видят программы, с которыми взаимодействуют как с «разумными», и поэтому считают, что исследования в сфере ИИ ни к чему не приводят. Но нас уже окружает ИИ, и его становится все больше, поэтому мы, как лягушки в кастрюле с водой, не понимаем, что вода становится все горячее и горячее.

ИИ, который у нас сейчас есть, не похож ни на что, что большинство людей рисует в своих научно-фантастических мечтах, — на машины, которые думают и действуют как человек, общий искусственный интеллект (ОИИ). Вместо этого у нас есть узконаправленный искусственный интеллект (УИИ), который очень хорош в выполнении конкретных задач вроде распознавания снимков или биржевой торговли. Когда же будет создан ОИИ, это пока остается за гранью понимания.

«В первые годы развития ИИ всегда было беспокойство, что ИИ никогда не доживет до выполнения своих обещаний, поскольку все, что работает, по определению уже не похоже на ИИ», — говорит Суббарао Камбапати, ученый информатики из Аризонского университета.

Карлос Гестрин, генеральный директор компании Dato из Сиэттла, которая строит алгоритмы ИИ для анализа данных, говорит, что это может быть потому, что УИИ не похож на человеческий интеллект.



«Как только что-то сделано, оно уже не является ИИ, — говорит Гестрин. — Это вопрос восприятия — как только что-то становится обычным явлением, демистифицируется, оно уже не похоже на волшебный интеллект, который мы видим в людях».

С другой стороны, это также порождает страх перед неизвестным «будущим» ИИ, который, похоже, всегда будет прятаться за углом. Когда люди говорят о том, что ОИИ становится возможным, разговор всегда сопровождается страхами на тему того, во что этот ИИ внезапно может превратиться.

«Я думаю, что эта идея, что ИИ собирается грянуть как гром, порождает вопрос, мол, что мы будем делать, когда ИИ будет тут, — говорит Сабин Хауэрт, робототехник из Бристольского университета. — В реальности же мы работаем над ИИ уже 50 лет, а улучшения остаются мизерными».

Этот страх перед будущим человекоподобным ИИ опирается на предвзятое ощущение, что эта технология, которая существовала годами, внезапно приобретет человеческие атрибуты, и является антропоморфизацией. Но учитывая то, как мы пытаемся создать ИИ сейчас, маловероятно, что у ИИ будущего будут атрибуты человека — элементы вроде эмоций, сознания или даже инстинкта самосохранения, по мнению Йошуа Бенгио, компьютерного ученого из Монреальского университета. Потому что разумный ИИ будет обладать совершенно другим интеллектом, чем человек.

«Самое большое заблуждение лежит в идее, которая распространена в научной фантастике, что ИИ будет похож на другое живое существо, которое мы можем себе представить, животное или инопланетянина — следовательно, у такого ИИ будет эго, сознание, как у человека, — говорит Бенгио. — Но машины могут быть разумными и без самосознания, эго и даже инстинкта самосохранения».

Шимон Уайтсон, ученый из Амстердамского университета, объяснил, почему люди по умолчанию присваивают ИИ человеческие черты.

«У нас есть склонность наделять человеческими чертами любой тип интеллекта, потому что мы живем в мире, в котором только люди являются примером высокого уровня интеллекта, — говорит Уайтсон. — Мы на самом деле понятия не имеем, каким бы мог быть интеллект, если бы не принадлежал человеку».

Благодаря исследованиям в сфере ИИ, мы обнаруживаем, что может существовать много других типов интеллекта. Не каждой интеллектуальной программе нужно быть по сути человекоподобной. Когда технология ИИ научится хорошо делать одну конкретную задачу, она вообще не будет похожа на человека, а большинство людей не будут видеть в ней ИИ. Но когда появится ОИИ, он тоже не будет похож на человека.

«Интеллект — это не единственное свойство системы, — говорит Томасо Поджио из MIT. — Интеллект — это одно слово, которое может относиться ко многим вещам. Мы измеряем интеллект по тому, как хорошо человек или компьютер может выполнять задачу, включая задачу обучения. По этому показателю компьютеры уже намного умнее людей во многих задачах, включая запоминание вещей, арифметику, вычисления, торговлю на бирже, посадку летательных аппаратов».

Чтобы покончить с парадоксом — дико мечущимся между убеждением, что ИИ еще не прибыл и что когда он прибудет, нам всем хана, — нужно пересмотреть понятие человеческого интеллекта. Нужно понять интеллект в более широком смысле и понять, что машина, которая делает работу, является разумной. Чем раньше это произойдет, тем легче будет сосредоточиться на преимуществах и реальных рисков, которые, по мнению исследователей, может принести будущий ИИ.

http://hi-news.ru/technology/pochemu-my-nepravilno-vosprinimaem-iskusstvennyj-intellekt.html
1713960830
Hero Member
*
Offline Offline

Posts: 1713960830

View Profile Personal Message (Offline)

Ignore
1713960830
Reply with quote  #2

1713960830
Report to moderator
1713960830
Hero Member
*
Offline Offline

Posts: 1713960830

View Profile Personal Message (Offline)

Ignore
1713960830
Reply with quote  #2

1713960830
Report to moderator
Transactions must be included in a block to be properly completed. When you send a transaction, it is broadcast to miners. Miners can then optionally include it in their next blocks. Miners will be more inclined to include your transaction if it has a higher transaction fee.
Advertised sites are not endorsed by the Bitcoin Forum. They may be unsafe, untrustworthy, or illegal in your jurisdiction.
1713960830
Hero Member
*
Offline Offline

Posts: 1713960830

View Profile Personal Message (Offline)

Ignore
1713960830
Reply with quote  #2

1713960830
Report to moderator
AlfredPetrov
Sr. Member
****
Offline Offline

Activity: 378
Merit: 250


View Profile
November 01, 2015, 02:50:43 PM
 #2

Эту бы тему объединить с темой "ИИ представляет скрытую угрозу" - вот где реальная площадка для обсуждений. Явление вроде одно, а отношение к нему разное...
bontyw1276
Legendary
*
Offline Offline

Activity: 1470
Merit: 1002


View Profile
November 01, 2015, 06:38:47 PM
 #3

да все потому, что в детстве слишком часто смотрели "терминатор 2"
TRilon
Sr. Member
****
Offline Offline

Activity: 476
Merit: 250



View Profile
November 01, 2015, 06:57:25 PM
 #4

да все потому, что в детстве слишком часто смотрели "терминатор 2"
А еще Матрицу  Grin
bontyw1276
Legendary
*
Offline Offline

Activity: 1470
Merit: 1002


View Profile
November 01, 2015, 07:07:43 PM
 #5

да все потому, что в детстве слишком часто смотрели "терминатор 2"
А еще Матрицу  Grin
это уже было попозже, хотя тоже наложило свой отпечаток )
JackQwerty
Full Member
***
Offline Offline

Activity: 322
Merit: 195


BTC-ПОЭТ


View Profile WWW
November 01, 2015, 08:25:10 PM
 #6

Мое мнение, как IT специалиста заключается в следующем: В ИИ нет ничего страшного и тд. Изначально он должен создаваться для решения конкретных задачь, работать и саморазвиваться в области поставленной задачи и не выходить за рамки. Предавать такому ИИ человеческие черты или манеры нет ни малейшей необходимости. Так же изначально в базовый не меняемый код должны быть прописаны истины того, что нельзя делать, к примеру вредить каким-либо образом человеку, данный код не может обходиться или переписываться и все. К примеру робот по уборке мусора. Ему не нужна человечность и имитация чувств и личности, он должен выполнять свою функцтоналную обязанность и учиться в рамках своего назначения. И никаких терминаторов не будет.

Вова решил Робин Гудом вдруг стать - Богатых битки через кран раздавать
Менты запалили через хостинг в аренде, Вова в лес ушел прятаться - все как в легендеSmileySmiley
avdot
Hero Member
*****
Offline Offline

Activity: 1078
Merit: 512


View Profile
November 01, 2015, 08:48:59 PM
 #7

«Самое большое заблуждение лежит в идее, которая распространена в научной фантастике, что ИИ будет похож на другое живое существо, которое мы можем себе представить, животное или инопланетянина — следовательно, у такого ИИ будет эго, сознание, как у человека, — говорит Бенгио. — Но машины могут быть разумными и без самосознания, эго и даже инстинкта самосохранения». Тут все дело в том кто что понимает под этим словом. Разумно вынести из горящего автобуса ребенка или разумно спасти президента крупной фирмы?
JackQwerty
Full Member
***
Offline Offline

Activity: 322
Merit: 195


BTC-ПОЭТ


View Profile WWW
November 01, 2015, 08:53:58 PM
 #8

«Самое большое заблуждение лежит в идее, которая распространена в научной фантастике, что ИИ будет похож на другое живое существо, которое мы можем себе представить, животное или инопланетянина — следовательно, у такого ИИ будет эго, сознание, как у человека, — говорит Бенгио. — Но машины могут быть разумными и без самосознания, эго и даже инстинкта самосохранения». Тут все дело в том кто что понимает под этим словом. Разумно вынести из горящего автобуса ребенка или разумно спасти президента крупной фирмы?

Машинная логика гласит, что спасен будет тот, чъи математические шансы будут выше. А в их расчет будет выполняться на основе входных данных, таких как удаленность от ИИ-спасателя, нагрузок, с которыми столкнется кандидат на спасение и тд. Если у президента крупной фирмы будут шансы, а у ребенка нет, то машина спасет его. Тут вопрос уже в этике программистов, которые настроят ИИ. Не внесут ли они в код ИИ приоритета для президента фирмы из примера. Все к людям сводится. Какие люди, таков и ИИ. Меняем себя сначала.

Вова решил Робин Гудом вдруг стать - Богатых битки через кран раздавать
Менты запалили через хостинг в аренде, Вова в лес ушел прятаться - все как в легендеSmileySmiley
Pages: [1]
  Print  
 
Jump to:  

Powered by MySQL Powered by PHP Powered by SMF 1.1.19 | SMF © 2006-2009, Simple Machines Valid XHTML 1.0! Valid CSS!