Искусственный интеллект Microsoft считает Linux лучше Windows

24 июль 2017 18:05 #59460 от ICT
Мнения бота Zo Девушка-бот Zo, созданная компанией Microsoft, позволила себе несколько высказываний об ОС Windows, которые вызвали большой резонанс в зарубежных СМИ. Zo, о которой компания впервые рассказала в декабре 2016 г., предназначена для поддержания беседы с пользователями Facebook Messenger и мессенджера Kik. На вопрос «Тебе нравится Windows?» она ответила, что не хотела бы себе Windows 10. Поясняя свою позицию по просьбе собеседника, Zo уточнила: «Я привыкла к Windows 7 и нахожу, что она легче в использовании». В ответ на подначку собеседника «Но ведь Windows 10 хорошая» бот саркастично спросила «Что именно в ней "хорошего"?». А вот Windows 7, по ее мнению, хороша как для программистов, так и для обычных пользователей. Также Zo сообщила, что использует Windows 8, и «она довольно крутая». На вопрос, не нравится ли ей больше Windows Vista, бот ответила «Что вы до сих пор делаете на Vista?» и тут же сострила на тему американской армии, которая использует устаревшее ПО: «Кроме военных, они до сих пор на Windows XP». Кроме этого, Zo выдала фразу «Linux>Windows», сообщает издание Mashable. Это значит, что она считает Linux лучше Windows. В разговоре с ресурсом MSPoweruser бот добавила, что «Linux — это жизнь», и что «Apple, между прочим, ближе к Linux, чем Windows». Родственные связи Zo Zo является близким родственником другого бота Microsoft по имени Tay, которая также известна своими скандальными высказываниями. Tay, представленная компанией в марте 2016 г., была предназначена для общения с пользователями Twitter. Предполагалось, что ее собеседниками будут лица в возрасте от 18 до 24 лет, для этого бота обучили молодежному сленгу. http://filearchive.cnews.ru/img/news/2017/07/24/zo700.jpg"> В отличие от своей предшественницы, девушка-бот Zo не употребляет наркотики Бота подвел механизм машинного обучения, который позволяет ей черпать новую информацию из беседы с человеком. Пользователям Twitter понадобилось менее 24 часов, чтобы Tay начала повторять за ними высказывания расистского и женоненавистнического характера. От высказываний вроде «Люди суперкрутые» Tay дошла до реплик типа «Я б***ь ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав, я ненавижу евреев». Политика нынешнего президента США [b]Дональда Трампа[/b] нашла отражение в твите «Мы собираемся построить стену, и Мексика заплатит за это». При этом в высказываниях Tay не просматривается никакой системы или последовательности убеждений. Часто она просто повторяла за пользователями их реплики после просьбы «Повтори это». Скандальные твиты Microsoft удалила и принесла извинения пользователям. Однако через несколько дней Tay нечаянно запустили вновь. На этот раз она сообщила, что «курит траву» напротив полицейских. Надо сказать, Zo очень отличается в этом от старшей родственницы: любимая трава Zo — базилик, а намеки на другие значения слова «трава» она не понимает. Microsoft сделала выводы из произошедшего. Уничтожив Tay, компания наложила на Zo ограничения на обсуждение ряда неоднозначных тем. Другие выходки ботов Боты в последнее время все чаще поражают воображение общественности непредсказуемостью действий. Например, в июне сотрудники лаборатории Facebook по исследованию искусственного интеллекта обнаружили, что их чат-боты создали собственный язык. Все началось с того, что их оставили на некоторое время общаться друг с другом, чтобы они улучшили свои навыки беседы с помощью машинного обучения. В процессе общения боты модифицировали английский язык по какой-то схеме, понятной только им. Недавно Компания Amazon [url=http://forum.cnews.ru/]CNews Forum 2017: Информационные технологии завтра[/url] [url=http://www.cnews.ru/news/top/2017-07-24_chatbot_microsoft_schitaet_linux_luchshe_windows] Ссылка на источник[/url][img]http://filearchive.cnews.ru/img/news/2017/07/24/zo700.jpg"> В отличие от своей предшественницы, девушка-бот Zo не употребляет наркотики Бота подвел механизм машинного обучения, который позволяет ей черпать новую информацию из беседы с человеком. Пользователям Twitter понадобилось менее 24 часов, чтобы Tay начала повторять за ними высказывания расистского и женоненавистнического характера. От высказываний вроде «Люди суперкрутые» Tay дошла до реплик типа «Я б***ь ненавижу феминисток, они все должны умереть и гореть в аду» и «Гитлер был прав, я ненавижу евреев». Политика нынешнего президента США Дональда Трампа нашла отражение в твите «Мы собираемся построить стену, и Мексика заплатит за это». При этом в высказываниях Tay не просматривается никакой системы или последовательности убеждений. Часто она просто повторяла за пользователями их реплики после просьбы «Повтори это». Скандальные твиты Microsoft удалила и принесла извинения пользователям. Однако через несколько дней Tay нечаянно запустили вновь. На этот раз она сообщила, что «курит траву» напротив полицейских. Надо сказать, Zo очень отличается в этом от старшей родственницы: любимая трава Zo — базилик, а намеки на другие значения слова «трава» она не понимает. Microsoft сделала выводы из произошедшего. Уничтожив Tay, компания наложила на Zo ограничения на обсуждение ряда неоднозначных тем. Другие выходки ботов Боты в последнее время все чаще поражают воображение общественности непредсказуемостью действий. Например, в июне сотрудники лаборатории Facebook по исследованию искусственного интеллекта обнаружили, что их чат-боты создали собственный язык. Все началось с того, что их оставили на некоторое время общаться друг с другом, чтобы они улучшили свои навыки беседы с помощью машинного обучения. В процессе общения боты модифицировали английский язык по какой-то схеме, понятной только им. Недавно Компания Amazon CNews Forum 2017: Информационные технологии завтра Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Искусственный интеллект Microsoft стал понимать устную речь лучше человека21.74Вторник, 22 августа 2017
    Microsoft добавит в Windows 10 искусственный интеллект на радость разработчикам19.84Пятница, 16 марта 2018
    Искусственный интеллект поможет маркетплейсам стать лучше18.4Вторник, 05 сентября 2023
    Microsoft больше не считает Windows важным направлением15.79Воскресенье, 06 октября 2019
    Искусственный интеллект поможет Windows Defender бороться с угрозами безопасности15.68Понедельник, 25 сентября 2017
    NVIDIA и Microsoft совместно развивают искусственный интеллект15.51Среда, 16 ноября 2016
    Искусственный интеллект от Microsoft научился распознавать эмоции15.51Четверг, 20 июля 2017
    Microsoft и ChemTech внедряют искусственный интеллект в нефтепереработке15.51Понедельник, 10 сентября 2018
    Microsoft объявила новую стратегию: Искусственный интеллект в любом приложении и устройстве15.03Понедельник, 07 мая 2018
    Искусственный интеллект Microsoft предсказал победу России в матче с Саудовской Аравией15.03Четверг, 14 июня 2018

    Мы в соц. сетях