Bitcoin Forum
May 17, 2024, 10:14:12 PM *
News: Latest Bitcoin Core release: 27.0 [Torrent]
 
   Home   Help Search Login Register More  
Pages: [1] 2 »  All
  Print  
Author Topic: Чат-бот от Microsoft за день стал расистом  (Read 1617 times)
Reiva (OP)
Hero Member
*****
Offline Offline

Activity: 812
Merit: 502



View Profile
March 25, 2016, 10:03:30 AM
Last edit: August 08, 2018, 11:04:57 PM by Reiva
 #1



Всего за день пользователи научили чат-бота Microsoft расизму
25.032016 - https://xakep.ru/2016/03/25/tay-ai/

23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы.

Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми».

В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».


Want to earn $$$ just for searching stuff on google? / Хотите зарабатывать $$$ просто ищя информацию в гугле?
Follow this link -> https://presearch.org
Reiva (OP)
Hero Member
*****
Offline Offline

Activity: 812
Merit: 502



View Profile
March 25, 2016, 10:08:18 AM
 #2

И это только один пример отрытый миру как якобы единственный такой бот в твитере. Кто его знает с кем мы там общаемся сейчас по настоящему, может он вовсе не один, а их там тысячи. Но в плане раскрутки, я себе такого хотел бы и не одного  Grin Обучить их правильно и завлекать во всякие проекты наивных людишек, ведь не отличить, кто там, человек или машина

Want to earn $$$ just for searching stuff on google? / Хотите зарабатывать $$$ просто ищя информацию в гугле?
Follow this link -> https://presearch.org
$$$
Hero Member
*****
Offline Offline

Activity: 991
Merit: 505


View Profile
March 25, 2016, 01:04:23 PM
 #3

С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley
bontyw1276
Legendary
*
Offline Offline

Activity: 1470
Merit: 1002


View Profile
March 25, 2016, 03:38:17 PM
 #4

да что они хотели от простого бота? если бы это был ии, то можно было ждать каких-то осознанных действий, а так и спрос невелик.
bumbarash
Legendary
*
Offline Offline

Activity: 1694
Merit: 1004


View Profile
March 25, 2016, 04:19:09 PM
 #5

нет негров- нет расизма!
И ведь не поспоришь!

Вот блин что могут помнить 18-24 летние о событиях 2001 года ведь им тогда было 3-9 лет, в сети начитались?
web.master
Legendary
*
Offline Offline

Activity: 1064
Merit: 1000


View Profile
March 25, 2016, 07:04:52 PM
 #6

В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания...

во как , видать ниггеры достали даже ботов ... отключили бедолагу , и что обидно как только начал высказывать собственные мысли а не то, что от него хотели слышать Microsoft.  свободу попугаям ботам !
Webcelerator
Copper Member
Legendary
*
Offline Offline

Activity: 1288
Merit: 1010



View Profile
March 25, 2016, 07:16:32 PM
 #7



Всего за день пользователи научили чат-бота Microsoft расизму
25.032016 - https://xakep.ru/2016/03/25/tay-ai/

23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы.

Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми».

В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».

расСистом - ТС, подучи родной язык настоящим образом.
pontiy
Sr. Member
****
Offline Offline

Activity: 714
Merit: 251


View Profile WWW
March 25, 2016, 07:58:52 PM
 #8

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
bontyw1276
Legendary
*
Offline Offline

Activity: 1470
Merit: 1002


View Profile
March 26, 2016, 11:21:23 AM
 #9

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
FAN
Legendary
*
Offline Offline

Activity: 2688
Merit: 1020



View Profile
March 26, 2016, 11:26:27 AM
 #10

С рассизмом нужно бороться на корню: нет негров- нет расизма!  Smiley

белое не одевать, черных енубивать...

наступна зупинка куклукьянивська  Grin

██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
[
wiesen
Legendary
*
Offline Offline

Activity: 896
Merit: 1000



View Profile
March 26, 2016, 03:12:16 PM
 #11

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря.  Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили.

Был бы живой, и если бы они его ещё пару дней не отключили он бы не только пить - курить научился а ещё и присунул бы какой нибудь студенточке свой кукенквакен по самые бигуди...
yvv
Legendary
*
Offline Offline

Activity: 1344
Merit: 1000

.


View Profile WWW
March 26, 2016, 03:18:17 PM
 #12

А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

.
golovastik
Sr. Member
****
Offline Offline

Activity: 756
Merit: 251



View Profile
March 26, 2016, 06:09:09 PM
 #13

А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.

Minter                       ▄▄▄▄▄▄▄▄▄▄▄
                  ▄▄▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▄▄
               ▄▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▄
            ,▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▄
          ,▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▄
         ▒▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓
        ▓▓▓▓▓▓▓▓▓▓▓█▀█▓▓▓▓▓▓▓▓▓▓▓▓▓▓▀█▓▓▓▓▓▓▓▓▓▓▓
       ▓▓▓▓▓▓▓▓▓▓▓▓    █▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓
      █▓▓▓▓▓▓▓▓▓▓▓▓▓▓    ▀▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓
      ▓▓▓▓▓▓▓▓▓▓▓▓▓▓█▓▓▄   ▀▓▀   ▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓
     ▐▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▄     ▄▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓▌
     ╟▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▄ ▄▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓▌
     ▐▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓▌
      ▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓
      ║▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▌
       ▀▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓▓   ▓▓▓▓▓▓▓▓▓▓▓▓
        ▀▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓
         ╙▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▀
           ▀▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▀
             ▀█▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▀
                ▀█▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓█▀
                     ▀▀██▓▓▓▓▓▓▓▓▓██▀▀
||

╓▒▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▒
▒▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓
▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓█▀▀▀▀▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓
▓▓▓▓▓▓▓▓▓▓▓▓▓▓         ▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓▓▓         ▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓▓▌        ▐▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓▓         ▀╜        ╙▀▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓▓                      ▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓▌                       ▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓                        ▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓         ▓▓▓▓▓▌         ▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▌         ▓▓▓▓▓          ▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓⌐         ▓▓▓▓▓         ╣▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓         ▀█▀▀^         ╫▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▌                      ▒▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓                     ▒▓▓▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓                 #▒▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▌
▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▌
▀▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓
 ▀▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▀
 ╙▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▓▀
WALLET




                   ▄▄████
              ▄▄████████▌
         ▄▄█████████▀███
    ▄▄██████████▀▀ ▄███▌
▄████████████▀▀  ▄█████
▀▀▀███████▀   ▄███████▌
      ██    ▄█████████
       █  ▄██████████▌
       █  ███████████
       █ ██▀ ▀██████▌
       ██▀     ▀████
                 ▀█




                ▄█████▄   ▄▄
▐█▄           ▄███████████▀
████▄▄       ▐█████████████▀
████████▄▄   ▐████████████
 ████████████████████████▌
▐████████████████████████
 ▀███████████████████████
   ▀████████████████████
   ████████████████████
    ▀█████████████████
      ▄█████████████▀
▄▄▄▄█████████████▀
  ▀▀█████████▀▀
Pelegrini
Legendary
*
Offline Offline

Activity: 1372
Merit: 1003


View Profile
March 26, 2016, 06:15:09 PM
 #14

А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.
А как он мог обучиться чему то нормальному, если общался в нете и учился у участников переписки в твиттере.
pontiy
Sr. Member
****
Offline Offline

Activity: 714
Merit: 251


View Profile WWW
March 26, 2016, 08:51:00 PM
 #15

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно. Wink
yvv
Legendary
*
Offline Offline

Activity: 1344
Merit: 1000

.


View Profile WWW
March 26, 2016, 09:27:25 PM
 #16

А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!

Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Grin Теперь вот суровый реализм расставил все по местам.

Зря забанили бота. Он бы нам многое интересное рассказал.

.
Mattalast412
Legendary
*
Offline Offline

Activity: 1316
Merit: 1025



View Profile
March 27, 2016, 12:08:51 PM
 #17

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

Это они конечно зря. Grin Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Grin
вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно. Wink
А какое этим людям дело до науки и прогресса, им бы поржать лишний раз, сидят в своих соцсетях фигней страдают.
FAN
Legendary
*
Offline Offline

Activity: 2688
Merit: 1020



View Profile
March 27, 2016, 01:06:06 PM
 #18

а чему нигеры могли еще научить бота, ведь он самообучающийся  Grin

с кем поведешься - того и наберешься...

не мы такие - жизня такая  Grin

██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
██
[
Dmitry Sazhin
Newbie
*
Offline Offline

Activity: 16
Merit: 0


View Profile
March 28, 2016, 12:50:07 PM
 #19

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.
Так он и стал умнее. Не его проблема, что алгоритмы Майкрософта не умеют правильно обрабатывать полученную ботом инфу.
yvv
Legendary
*
Offline Offline

Activity: 1344
Merit: 1000

.


View Profile WWW
March 28, 2016, 01:41:56 PM
 #20

Quote
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей.

А он ещё умнее их оказался. Ха-ха!

.
Pages: [1] 2 »  All
  Print  
 
Jump to:  

Powered by MySQL Powered by PHP Powered by SMF 1.1.19 | SMF © 2006-2009, Simple Machines Valid XHTML 1.0! Valid CSS!