Reiva (OP)
|
|
March 25, 2016, 10:03:30 AM Last edit: August 08, 2018, 11:04:57 PM by Reiva |
|
23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы. Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми». В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».
|
Want to earn $$$ just for searching stuff on google? / Хотите зарабатывать $$$ просто ищя информацию в гугле?
|
|
|
Reiva (OP)
|
|
March 25, 2016, 10:08:18 AM |
|
И это только один пример отрытый миру как якобы единственный такой бот в твитере. Кто его знает с кем мы там общаемся сейчас по настоящему, может он вовсе не один, а их там тысячи. Но в плане раскрутки, я себе такого хотел бы и не одного Обучить их правильно и завлекать во всякие проекты наивных людишек, ведь не отличить, кто там, человек или машина
|
Want to earn $$$ just for searching stuff on google? / Хотите зарабатывать $$$ просто ищя информацию в гугле?
|
|
|
$$$
|
|
March 25, 2016, 01:04:23 PM |
|
С рассизмом нужно бороться на корню: нет негров- нет расизма!
|
|
|
|
bontyw1276
Legendary
Offline
Activity: 1470
Merit: 1002
|
|
March 25, 2016, 03:38:17 PM |
|
да что они хотели от простого бота? если бы это был ии, то можно было ждать каких-то осознанных действий, а так и спрос невелик.
|
|
|
|
bumbarash
Legendary
Offline
Activity: 1694
Merit: 1004
|
|
March 25, 2016, 04:19:09 PM |
|
нет негров- нет расизма!
И ведь не поспоришь! Вот блин что могут помнить 18-24 летние о событиях 2001 года ведь им тогда было 3-9 лет, в сети начитались?
|
|
|
|
web.master
Legendary
Offline
Activity: 1064
Merit: 1000
|
|
March 25, 2016, 07:04:52 PM |
|
В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания...
во как , видать ниггеры достали даже ботов ... отключили бедолагу , и что обидно как только начал высказывать собственные мысли а не то, что от него хотели слышать Microsoft. свободу попугаям ботам !
|
|
|
|
Webcelerator
Copper Member
Legendary
Offline
Activity: 1288
Merit: 1010
|
|
March 25, 2016, 07:16:32 PM |
|
23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы. Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми». В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать». расСистом - ТС, подучи родной язык настоящим образом.
|
|
|
|
pontiy
|
|
March 25, 2016, 07:58:52 PM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Это они конечно зря. Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили.
|
|
|
|
bontyw1276
Legendary
Offline
Activity: 1470
Merit: 1002
|
|
March 26, 2016, 11:21:23 AM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Это они конечно зря. Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров.
|
|
|
|
FAN
Legendary
Offline
Activity: 2688
Merit: 1020
|
|
March 26, 2016, 11:26:27 AM |
|
С рассизмом нужно бороться на корню: нет негров- нет расизма! белое не одевать, черных енубивать... наступна зупинка куклукьянивська
|
| ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ | | ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ | | ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ | | ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ |
[
|
|
|
wiesen
Legendary
Offline
Activity: 896
Merit: 1000
|
|
March 26, 2016, 03:12:16 PM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Это они конечно зря. Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. Был бы живой, и если бы они его ещё пару дней не отключили он бы не только пить - курить научился а ещё и присунул бы какой нибудь студенточке свой кукенквакен по самые бигуди...
|
|
|
|
yvv
Legendary
Offline
Activity: 1344
Merit: 1000
.
|
|
March 26, 2016, 03:18:17 PM |
|
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!
|
.
|
|
|
golovastik
|
|
March 26, 2016, 06:09:09 PM |
|
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!
Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Теперь вот суровый реализм расставил все по местам.
|
|
|
|
Pelegrini
Legendary
Offline
Activity: 1372
Merit: 1003
|
|
March 26, 2016, 06:15:09 PM |
|
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!
Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Теперь вот суровый реализм расставил все по местам. А как он мог обучиться чему то нормальному, если общался в нете и учился у участников переписки в твиттере.
|
|
|
|
pontiy
|
|
March 26, 2016, 08:51:00 PM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Это они конечно зря. Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров. Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно.
|
|
|
|
yvv
Legendary
Offline
Activity: 1344
Merit: 1000
.
|
|
March 26, 2016, 09:27:25 PM |
|
А что он такого сказал? Каких-нибудь чурок обматерил? Так это пол-америки делает каждый день, сидя за компьютером. Бот тут причём? Свободу слова ботам!!!
Наверное в умах создателей он виделся чем-то идеальным и разумным, способным обучаться только положительным в их понимании моментам. Теперь вот суровый реализм расставил все по местам. Зря забанили бота. Он бы нам многое интересное рассказал.
|
.
|
|
|
Mattalast412
Legendary
Offline
Activity: 1316
Merit: 1025
|
|
March 27, 2016, 12:08:51 PM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Это они конечно зря. Люди не бросились к нему со своим багажом полезных знаний, чтобы способствовать оптимизации бота, а пошли по другому пути, что в общем-то предсказуемо. Был бы живой, еще бы пить-курить научили. вот есть у людей дурацкая привычка - учить чему-то плохому, да еще и ржать потом над бедным ботом, поносящим негров. Эксперимент перерос в народную забаву, людям просто скучно, а на эксперименты с самообучающимся ИИ всем по сути плевать. Будет быдловатый и хамоватый ИИ - тоже результат, во всяком случае им не скучно. А какое этим людям дело до науки и прогресса, им бы поржать лишний раз, сидят в своих соцсетях фигней страдают.
|
|
|
|
FAN
Legendary
Offline
Activity: 2688
Merit: 1020
|
|
March 27, 2016, 01:06:06 PM |
|
а чему нигеры могли еще научить бота, ведь он самообучающийся с кем поведешься - того и наберешься... не мы такие - жизня такая
|
| ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ | | ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ | | ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ | | ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ ██ |
[
|
|
|
Dmitry Sazhin
Newbie
Offline
Activity: 16
Merit: 0
|
|
March 28, 2016, 12:50:07 PM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Так он и стал умнее. Не его проблема, что алгоритмы Майкрософта не умеют правильно обрабатывать полученную ботом инфу.
|
|
|
|
yvv
Legendary
Offline
Activity: 1344
Merit: 1000
.
|
|
March 28, 2016, 01:41:56 PM |
|
Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. А он ещё умнее их оказался. Ха-ха!
|
.
|
|
|
|