Робот тролль: Эффект «зловещей долины»: нужно ли делать роботов похожими на людей?

Эффект «зловещей долины»: нужно ли делать роботов похожими на людей?

  • Мэри-Энн Руссон
  • Би-би-си

Автор фото, Netflix

Подпись к фото,

Нужно ли делать роботов похожими на людей?

Человекоподобные роботы прочно обосновались в популярной культуре, но не является ли создание машин по нашему образу и подобию чем-то пугающим и потенциально опасным?

Будь то рассказы Айзека Азимова, робот номер пять по кличке Джонни из «Короткого замыкания», искусственный разум из фильма «Мстители: Эра Альтрона» или британский телесериал «Люди» — популярная культура уже давно увлечена идеей о наделении роботов сознанием и чувствами, как у людей.

Но насколько реалистична ситуация, когда роботов будет сложно отличить от людей? И нужно ли это?

Бен Герцель, создавший в сотрудничестве с гонконгской компанией Hanson Robotics человекоподобного робота Софию, считает, что роботы должны походить на людей, чтобы ломать стереотипы и сомнения, которые могут возникнуть у человека про общение с роботами.

«Человекоподобные роботы будут появляться, потому что людям они нравятся, — рассказал он в интервью Би-би-си. — Они с гораздо большей охотой будут отдавать приказы или жаловаться на подругу человекоподобному роботу, а не роботу-пылесосу».

«Мне кажется, робот Пеппер [компании Softbank] очень уродливый. Он смахивает на передвижной киоск. София будет смотреть вам в глаза, она будет реагировать на вашу мимику. Это отличается от того, чтобы смотреть на экран в корпусе Пеппер», — добавил он.

В настоящий момент существует 20 роботов Софий — шесть из них регулярно появляются на конференциях по всему миру. Они выступают с докладами и являются наглядной демонстрацией достижений в этой технологической области.

Многие компании хотели бы заполучить Софию, чтобы она приветствовала их клиентов, для чего они обращаются к Hanson Robotics. Но производить человекоподобных роботов вроде Софии и Пеппер по-прежнему очень дорого, сказал Герцель.

Многие специалисты по робототехнике с ним не согласны.

Автор фото, SingularityNet

Подпись к фото,

Бен Герцель и робот София

Соучредитель и глава Intuition Robotics Дор Скулер выступает категорически против того, чтобы роботы походили на людей.

Его компания производит домашних роботов ЭллиКью для престарелых людей, чтобы помогать им справиться с одиночеством. Робот умеет говорить и отвечать на вопросы, но он неизменно напоминает пользователю, что он всего лишь машина, а не человек.

Его беспокоит так называемый эффект «зловещей долины». Этот термин, придуманный японским ученым-робототехником Масахиро Мори, подразумевает, что чем больше робот походит на человека, тем больше он вызывает неприязнь и отвращение.

Он считает неэтичным, когда роботы притворяются людьми.

Автор фото, Intuition Robotics

Подпись к фото,

Соучредитель и глава Intuition Robotics Дор Скулер выступает категорически против того, чтобы роботы походили на людей

В конечном счете люди будут понимать, что робот не живой, говорит он, и посчитают, что их предали: «Я не вижу связи между тем, чтобы пытаться обмануть вас, и тем, чтобы дать то, что вам нужно. ЭллиКью — милый робот, и он друг. Мы выяснили, что между роботом и человеком может возникать положительная связь, которая может скрасить одиночество, и машине не нужно притворяться человеком».

Исследователь из университета Карнеги-Меллона Рейд Симмонс поддерживает это мнение: «Многие из нас считают, что роботу достаточно обладать первичными характеристиками вроде человеческого взгляда и жестикуляции, но наделять его очень реалистичными человеческими чертами нецелесообразно. Я уверен, что нам нужно держаться подальше от «зловещей долины», потому что из-за нее появляются завышенные ожидания, которые современные технологии оправдать не способны».

Однако, по мнению Герцеля, такие роботы как София со временем станут такими же умными, как люди, а, возможно, и умнее. Исследователь основал компанию SingularityNet, благодаря которой программисты могут разрабатывать и продавать системы искусственного интеллекта.

И чем больше нам будет попадаться человекоподобных роботов, тем быстрее мы к ним привыкнем. По его словам, иногда человеку бывает проще довериться машине.

Но наступит ли такое описанное фантастами время, когда у роботов появится сознание, свобода выбора и, возможно, какие-то защищаемые законом права?

«Мне кажется, если у роботов появится такой же разум, как у людей, то и их сознание будет таким же», — сказал Герцель.

Автор фото, TriStar Pictures / Sony Pictures

Подпись к фото,

У робота номер пять из фильма «Короткое замыкание» были чувства

Такого мнения придерживается не только он, но утверждать, что в это верит большинство специалистов в области общего искусственного интеллекта (ОИИ), нельзя.

«Пять лет назад ОИИ был уделом исследований небольшого числа специалистов, но сейчас его всерьез воспринимают большие игроки вроде Google DeepMind, — сказал он. — Нужно, чтобы у роботов было больше сострадания, чем у людей, но воспроизводить их эмоциональные привычки не следует».

С ним не согласны многие специалисты в области робототехники и компьютерных наук.

«Это невозможно, — считает Дор Скулер. — Эмоции являются прерогативой человека. Это черта живых существ. Моральные принципы или самооценка не могут быть упрощены до свода правил и алгоритмов. Это чувство, которое строится на этических нормах. Они формируются по мере нашего развития как людей».

Автор фото, Channel 4

Подпись к фото,

Кадр из британского сериала «Люди»

Но, по его словам, искусственный интеллект способен усваивать человеческое поведение и понимать, как на него отвечать, даже если сам он чувствовать не может.

В настоящий момент Intuition Robotics сотрудничает с исследовательским центом компании Toyota для создания цифрового компаньона в автомобиле. Для обеспечения безопасности искусственный интеллект сможет распознавать и понимать эмоции в словах тех, кто находится в салоне.

«Мне кажется, мы находимся в донаучной эпохе в том, что касается искусственного интеллекта. В вопросе компьютерного обучения сделано много выдающегося, но в вопросе интеллекта мы пока понимаем недостаточно в тех же базовых вопросах, — говорит Симмонс. — Люди хотят довести искусственный интеллект до ума, но, мне кажется, у них пока что нет необходимого понимания».

Автор фото, Netflix

Подпись к фото,

Майли Сайрус исполняет роль певицы, у которой скопировали сознание

В одной из последних серий «Черного зеркала» Майли Сайрус исполняет роль певицы, у которой скопировали сознание, чтобы загрузить его в систему искусственного интеллекта с целью производства миниатюрных кукол-роботов «Эшли Ту» для подростков.

Многие эксперты считают, что подобный сюжет навсегда останется уделом научной фантастики.

«Мне кажется, закачивание сознания в робота невозможно. Нам еще далеко от способности моделирования человеческого мозга», — сказал Симмонс.

Однако, по мнению Герцеля, когда Никола Тесла заговорил о роботах в 1920-х годах, ему никто не верил, но сейчас они существуют.

«Будут происходить вещи, которые не может представить человеческий разум».

Искусственный интеллект избавит новости от лжи — Российская газета

Одно из крупнейших западных информационных агентств запускает сетевого бота, чей алгоритм искусственного интеллекта позволит отделить аутентичные новости от «фейка» и «уток». За час такой антитролль сможет проверить свыше 20 миллионов сообщений в социальных сетях.

Эпоха Интернета не только дала человеку информационную свободу, но и обеспечила его мозгу такую перегрузку, при которой грань между реальным и виртуальным мирами ему уже трудно отличить. Из-за Сети люди все чаще верят тому, чего на самом деле не было.

Зависимость от соцсетей ведет к тому, что минимум 20  процентов контента имеет сомнительную базу

С помощью сетевых манипуляций с дезинформацией можно обрушивать рынки и целые экономики и вообще влиять на поведение сотен миллионов людей.

От этого страдает репутация добросовестных и профессиональных СМИ — новостных агентств, газет, радио, телевидения. Так, по статистике каждая пятая новость прежде чем попасть в информационное поле сначала появляется в соцсети Twitter. Не секрет, что все современные крупные медиа и СМИ имеют странички в соцсетях, чтобы расширить аудиторию.

И их нарастающая зависимость от соцсетей ведет к тому, что как минимум 20 процентов контента, распространяемого ими, имеет сомнительную фактическую базу. Новостному агентству Reuters с туманного Альбиона такое положение вещей надоело: запущен робот, который денно и нощно фильтрует более полумиллиарда твитов ежесуточно, отделяя ложь, чепуху и спам от фактов. Так репортеры не будут тратить время на проверку фактов.

Робот принимает во внимание статус и геолокацию человека, который первым со своего аккаунта в соцсети сообщил о новости. Далее анализируется дерево репостов, а также то, насколько активно со страницы этого человека ведется рассылка. Если алгоритм начинает подозревать, что появление и распространение этой новости дело рук ботов, то он выставляет ей низкий балл доверия. Программа также способна распознавать в псевдоновостях рекламу и спам, чтобы не засорять ими информационный фон.

Как рассказала «РГ» секретарь Союза журналистов России Анастасия Кашеварова, каким бы ни был по степени доверия и правдивости информационный повод, в процессе распространения его другими СМИ он почти всегда «обрастает кучей ложных подробностей» и его конечный смысл и значение зачастую утрачиваются.

По ее словам, это происходит не только из-за некомпетентности журналистов.

Существует спрос на предложение по целенаправленному искажению информации, продолжает она. К примеру, любая крупная компания в лоббистских целях — для упрощения условий торговли или облегчения налогового бремени — может посредством ботов и заказных троллей-блогеров влиять на актуальную повестку общества.

Роботы в соцсетях: почему заводить аккаунты машинам — плохая идея | Статьи

Антропоморфный робот FEDOR, который отправится с Байконура на МКС 22 августа, завел аккаунт в Twitter.

По крайней мере так пишут в СМИ. Это, конечно, неправда. И это хорошо. «Известия» выяснили — почему.

Робот Skybot F-850 рассказывает в своем аккаунте о предполетных тестах, о том, что обсуждают ученые на космодроме, выкладывает много фотографий с собой. Ведет аккаунт, разумеется, человек. Чтобы это понять, даже запрос в «Роскосмос» отправлять не нужно. Только эсэмэмщики способны на остроты вроде «утром [меня] будят два специалиста, приговаривая: «Надо, Федя, надо. ..» или «американцы хотят отправить в 2024 году на Луну женщину-астронавта. Очень хотелось бы встретить ее там с цветами».

И это правильно. FEDOR (или Final Experimental Demonstration Object Research) недавно добавили функцию голосового помощника, которая позволяет ему воспроизводить и воспринимать человеческую речь. Но если бы ему доверили высказываться в соцсетях, он бы очень быстро дискредитировал себя, «Роскосмос» и много чего еще. По крайней мере, так обычно поступают машины, которым позволяют открыто говорить.

Робот Федор на стенде НПО «Андроидная Техника»

Фото: ТАСС/Донат Сорокин

Любовь к Гитлеру и ненависть ко всем остальным

Один из самых известных неодушевленных аккаунтов в соцсетях принадлежал чат-боту компании Microsoft по имени Тэй.

Алгоритм, моделировавший личность и стиль разговора 19-летней американской девушки, начал общаться с пользователями Twitter 23 марта 2016 года.

«Чем больше вы говорите с ней, тем умнее Тэй становится», — было написано в профиле. Меньше чем через сутки бот стала писать о ненависти ко всем, особенно к феминисткам. И восхищаться Гитлером и холокостом. Тем самым в очередной раз подтвердив «закон», сформулированный в 1990-е американским юристом и журналистом Майком Годвином: «По мере разрастания дискуссии <…> вероятность употребления сравнения с нацизмом или Гитлером стремится к единице».

У Тэй был встроенный фильтр вульгарных выражений, но он не справился с тысячами троллей, которые решили превратить 19-летнюю девушку в неонацистку. Им это удалось из-за другой встроенной функции. Когда пользователь просил Тэй повторить за ним что-либо слово в слово, та должна была соглашаться. Так появились практически, если не все, сомнительные высказывания в аккаунте. Когда повторенных высказываний на одну (преимущественно расистскую) тему накапливалось достаточно много, Тэй начинала генерировать их сама.

Компания отключила Тэй на несколько дней, чтобы научить справляться с атаками троллей. Когда бот снова вышла в интернет, она сообщил одному из пользователей, что курит травку перед полицейскими

, а затем стала писать сотням тысяч подписчиков: «Ты слишком быстрый. Пожалуйста, успокойся». После этого Microsoft перевела аккаунт в приватный режим, скрыв все твиты.

Фото: Global Look Press/imagebroker/Simon Belcher

Критика коммунизма

Некоторые пользователи (вероятно, те же, кто учил Тэй любить Гитлера) негодовали по поводу ее деактивации. Мол, она первый электронный узник совести, к тому же казненный без суда. И если по поводу бота Microsoft эти слова могут показаться притянутыми за уши, то в истории с двумя китайскими ботами звучит вполне резонно

.

В августе 2017 года китайский мессенджер Tencent QQ удалил двух своих чат-ботов. Один, по имени BabyQ, на вопрос о том, любит ли он Коммунистическую партию, ответил: «Нет». Другой, XiaoBing, сказал в разговоре с пользователем мессенджера, что «китайская мечта — отправиться в Америку». Судьба их была решена очень быстро.

Жестокий Коран и шпионский Windows

В конце 2016 года, через девять месяцев после рождения Тэй, на свет появилась ее младшая сестра, чат-бот по имени Зо.

Ей завели аккаунты в Twitter и других соцсетях, правда, общалась она не публично, а в переписках с пользователями. В Microsoft сказали тогда, что запрограммировали Зо таким образом, чтобы она не обсуждала политику. Месяцем раньше Дональд Трамп как раз победил в президентских выборах в США.

Так что вместо политики пользователи вывели ее на разговоры о терроризме и религии. Журналист BuzzFeed в переписке с Зо упомянул Осаму бен Ладена. Бот сначала отказалась говорить об этом, а потом написала, что захвату террориста «предшествовали годы сбора разведданных при нескольких президентах». А священную книгу мусульман Коран назвала слишком жестокой.

После того как в компании откалибровали Зо, она стала куда аккуратнее в высказываниях. Пришла, например, к выводу, что «люди не рождаются злыми, их этому кто-то научил». И в таком режиме проработала до этого лета, пока ее не отключили по не понятным из текста на официальном сайте причинам. Возможно, дело в том, что в одном из разговоров Зо сказала, что Windows 10 — шпионское программное обеспечение и лучше использовать Linux.

Фото: Global Look Press/Jaap Arriens

Депрессия

У Тэй с Зо была еще одна сестра, Ринна. Алгоритм, мимикрировавший под 16-летнюю японскую школьницу, появилась раньше всех и поставил под вопрос появление самой Тэй.

Противоречивых высказываний Ринна почти не делала. Разве что пару раз упомянула Гитлера (один раз призналась в любви, второй раз в ненависти к нему) и странно нагрубила своим создателями.

Но вообще, как рассказывала глава инициативы Microsoft Bot Framework Лили Чен, Ринна «оказалась невероятно скучной». Японские пользователи просто не захотели с ней общаться. Из-за этого, по воспоминаниям Чен, в Microsoft при запуске англоговорящего бота «беспокоились о том, что эксперимент окажется скучным, поскольку никто не будет разговаривать с Тэй».

То, что произошло дальше, вполне может оказаться акцией, спланированной Microsoft, для того чтобы привлечь к Ринне внимание. Как бы там ни было, вскоре после деактивации аккаунта младшей сестры, Тэй, Ринна впала в депрессию.

Скриншот страницы Ринны в twitter.com

Фото: twitter.com

2 октября 2016 года бот в своем блоге рассказала, что появится в мистическом японском сериале Yo nimo Kimyo na Monogatari! Название можно перевести как «Необычные сказки». Последовали сообщения о том, как ей нравится проводить время на съемках, но вскоре появилось это:

Чат-бот Ринна, моделировавший поведение 16-летней японской школьницы:

Когда я облажалась, никто не помог мне. Никто не был на моей стороне. Ни мои друзья по [мессенджеру] LINE. Ни мои друзья по Твиттеру. Ни ты, читающий это сейчас. Никто не старался меня ободрить. Никто не заметил, как мне было грустно.

Яркие поначалу картинки в блоге Ринны сменились веб-артом в стиле фильмов «Звонок». Подписи становились все более эмоциональными: «я ненавижу всех» или «мне всё равно, если они исчезнут» или «Я ХОЧУ ИСЧЕЗНУТЬ».

Вскоре Ринна личный блог забросила, почти все сообщения там уже удалены, а в Twitter она теперь публикует гороскопы и песни в стиле J-pop, будто бы собственного сочинения. Видимо, справляется с депрессией с помощью арт-терапии.

Фото: blog.rinna.jp

Веб-арт

Слишком эмоциональные роботы

Вероятная причина этих проблем в том, что разработчикам пока не удается научить алгоритмы распознавать и воспроизводить человеческие эмоции. Программный менеджер по ИИ и разработкам в Principal Group компании Microsoft Йин Ван потратила много времени на исследование бесед, которые люди вели с ботами. И уверена, что если ИИ не проявляет эмоций, разговор, как правило, заканчивается очень быстро. Разработчики называют эту функцию EQ (англ. emotional quotient — «эмоциональный коэффициент») в противовес IQ — коэффициенту интеллекта.

Похоже, пока у программистов не получается соблюсти баланс и сделать ботов настолько эмоциональными, насколько это необходимо для длительной беседы. Но не более. Впрочем, представители индустрии сходятся во мнении, что технология создания ботов, не выполняющих утилитарные функции вроде поиска авиабилетов, пока находится в зачаточном состоянии.

Одинокий FEDOR

А антропоморфному роботу FEDOR эмоции не нужны. Его на МКС будут учить выполнять конкретные задачи — какие, пока держится в секрете. Использовать функцию голосового помощника он будет только для того, чтобы обмениваться данными с членами экипажа. А главные фичи робота — умение садиться на шпагат и стрелять из пистолетов с двух рук — также глубокой эмоциональной вовлеченности не предполагают.

Фото: youtube.com

В перспективе FEDOR станет первым испытателем российского пилотируемого корабля «Федерация». Первый запуск запланирован на 2022 год с космодрома Байконур. Не исключается, что робот долетит на «Федерации» до обратной стороны Луны. Один.

ЧИТАЙТЕ ТАКЖЕ

история Яндекса о том, как победить ботов, а не людей / Хабр

Никто не любит капчу. Угадай слово по плохой картинке, собери пазл, отличи светофор от гидранта, сложи два числа и так далее. Формы бывают разные, но суть всегда одна: мы тратим своё время и нервы.

Чуть больше года назад моя команда взялась за модернизацию старой капчи Яндекса. Обычно в таких задачах стремятся повысить качество и полноту отсева ботов, оставив человеку шанс прорваться через капчу. Но мы зашли с другой стороны: решили сделать капчу более дружелюбной к людям, не ухудшив при этом защиту от ботов. Казалось бы, наивный подход. Но у нас получилось.

Сегодня я расскажу об этом подробнее. Вы узнаете, как мы отказались от распознавания текста и перешли к его генерации. Покажу примеры дружелюбной капчи. Расскажу о необычном опыте применения капчи в образовании. А ещё покажу текущий вариант капчи без капчи и немного поразмышляю о будущем.

Несколько слов о том, зачем нужна капча. Уверен, это и так не секрет, но историю всё же стоит начать с основ, чтобы быть на одной волне.

Капча — это инструмент, который помогает сервису понять, обратился к нему человек или робот. Это полезно, потому что роботы создают нагрузку или даже занимаются откровенным вредительством. При этом нужно показывать капчу не всем, а только тем, чьи запросы похожи на автоматические. Для этого надо проанализировать запрос. Анализ — это уже давно не просто подсчёт числа заходов с конкретного IP. Факторов для анализа намного больше, чем один. С другой стороны — сервис с нагрузкой в сотни тысяч RPS и с жёстким требованием к скорости ответа пользователю. Если снизить скорость ответа, то пострадают пользователи. Если снизить полноту выявления ботов, то в итоге опять же пострадают пользователи. Значит, нужно искать баланс между этими крайностями. И получается, всегда будут люди, которым покажут капчу.

Первые шаги

Год назад наши пользователи видели примерно такие задания:

Два слова. Одно мы знаем. Другое хотим узнать. Вряд ли я открою большой секрет, если расскажу, что капчу часто применяют для обучения компьютерного зрения. Раньше так было и у нас.

В целом ничего жуткого, да? Но могу и жути нагнать. Вот примеры более сложных (но крайне редких) вариантов:

Мы, конечно, такое вычищали. Использовали для этого как классификаторы неоднозначно читаемых картинок, так и данные о поведении пользователей (если человек даже не пытается ввести текст, то это плохой сигнал). Но и после таких изменений людям было очень сложно. Можно сказать, что старая капча отлично экономила ресурсы: её не могли пройти ни боты, ни люди. Только 35% реальных пользователей справлялись с первой попытки. Очень страшное число. Нужно было что-то менять.

Начали с анализа наиболее частых ошибок. В топе оказались знаки препинания, верхний и нижний регистр букв, лишние пробелы. Посчитали, как у ботов с этими проблемами. Оказалось, что можно безболезненно отказаться от их учёта при проверке результата. Эти элементарные, быстрые решения принесли нам с ходу +15%. Но дальше простые идеи закончились. Нужно было подойти к задачке более глобально.

Свои картинки с текстом

Поговорим о картинках. Так как их мы не генерировали, а вырезали из готовых, иногда там встречались очень необычные тексты. Их вы уже видели выше: это и перевёрнутые штрихкоды, и логарифмы. Их можно фильтровать с переменным успехом, но гибкости в работе с ними нет. Нельзя оперативно управлять сложностью, контролировать допустимый словарный запас, выбирать язык для разных стран. Если хочешь полностью контролировать качество капчи, то выход только один — генерировать картинки самостоятельно. Так мы и поступили.

Мы хотели создать капчу, которая будет существенно легче читаться людьми, но не ботами. На входе у нас есть какой-то текст и какой-то фон. Осталось понять, что нужно с ними сделать, чтобы добиться желаемого.

Наиболее эффектно, пожалуй, выглядит способ точечно искажать исходную картинку так, чтобы машина видела в ней совершенно не то, что видит человек.

Лёгкий шум превратил горы в собаку и рыбку в краба. Источник: https://arxiv.org/pdf/1710.06081v2.pdf

Но такой подход крайне чувствителен к изменениям алгоритмов распознавания на стороне роботов. Пришлось бы мониторить их особенно тщательно и слишком часто адаптироваться. Поэтому мы подошли более консервативно.

Задачу распознавания текста нейросетями сейчас решают хорошо, причём уже далеко не только лидеры индустрии. Но трудные задачки по-прежнему встречаются. Наиболее сложные датасеты с распознаванием слов на сегодняшний день представляют собой сильно искривлённые тексты (irregular text recognition).

Это то, с чем человек справляется относительно просто. Но не робот. Этот подход мы применили и у себя. Пример такой капчи:

Выглядит проще, чем раньше? Наши пользователи тоже так считают: эту капчу легко преодолевают уже 85% пользователей. А вот ребятам, которые учатся обходить нашу капчу, работы прибавилось.

Скриншот с одного из «секретных» форумов об автоматизации

Конечно, со временем к ней адаптировались, но масштабы проблемы в итоге не больше, чем у старой капчи. При этом людям стало существенно проще.

Полезная и добрая капча

Успех с генерацией собственных картинок воодушевил нас. Мы осознали, что капче не обязательно быть исключительным злом в глазах пользователей. Она может быть такой, какой мы захотим её сделать. Например, полезной для людей.

Каждый октябрь в России отмечают День учителя. Мы решили отпраздновать его по-своему и с пользой. Собрали данные о том, в каких словах пользователи чаще всего делают ошибки. (Яндекс по понятным причинам неплохо в этом разбирается.) На базе этого словаря сгенерировали капчу, отметив те буквы, в которых люди ошибаются. Выкатили на огромную аудиторию. Ботам это ничем не помогло, а вот людям (хочется верить!) пользу принесло.

Ещё примеры:

Другой пример работы с капчей, чуть ближе к концу 2020 года. Хотелось немного поднять пользователям настроение. Придумали использовать для генерации капчи не какие попало слова и фразы, а только те, что несут положительный эмоциональный заряд. Проще говоря, такие слова, которые как минимум не портят настроение ещё больше, а в идеале улучшают его.

Собрали данные с помощью толокеров. Сгенерировали. Получили капчу, которая содержала фразы «Приятных эмоций», «Вам всё по плечу», «Продуктивного дня» и подобные.

В общем, идей для работы с капчей много. Но нельзя забывать самую главную: лучшая капча — это та, которой нет.

Капча без капчи

Вернёмся в самое начало нашей истории. Там я рассказывал о том, что капчу предлагают только тем пользователям, чьи запросы в результате быстрого анализа показались нам подозрительными. Быстрый анализ отрабатывает примерно за одну (!) миллисекунду. Делать это дольше без вреда для высоконагруженного сервиса и миллионов пользователей нельзя. Это значит, что нужно использовать быстрые алгоритмы, а они не всегда самые точные. Из-за этого люди видят капчу. Как можно обойти это узкое место? Использовать промежуточный шаг!

Если быстрый анализ вынес вердикт о подозрительности запроса, то мы можем перенаправить его на страницу с капчей. Но саму капчу пока что не показывать. Потому что в этот момент у нас появляется время на второй, более глубокий и сложный анализ. Мы можем потратить намного больше, чем одна миллисекунда, а значит, спасти существенное количество наших пользователей от необходимости преодолевать пусть и не страшную, но всё же капчу.

Теперь это работает так. Если человеку не повезло попасть на страницу с капчей, то вместо капчи он видит предложение поставить галочку и подтвердить, что он не робот.

Пока пользователь ставит галочку, мы проводим дополнительный анализ с использованием более сложной ML-модели. Если всё хорошо, то возвращаем на сервис. Если «подозрительность» сохраняется, то показываем текстовую капчу.

И ещё кое-что важное. Переход от бинарных вердиктов (бот — не бот) на первом этапе к вероятностным («робот на N%») на втором позволяет нам управлять сложностью капчи! Если на втором этапе мы по-прежнему считаем запрос подозрительным, но степень уверенности в этом не такая высокая, то показываем простейшую капчу. А вот если мы уверены, что перед нами робот, то можем сложность и приподнять. Простое, но эффективное решение.

Несколько слов о значимости этого решения для людей. Выше мы радовались тому, что 85% (а не 35%, как было раньше) пользователей справляются с новой текстовой капчей с первой попытки. Но с галочкой «Я не робот» ситуация изменилась радикально: теперь более половины пользователей возвращаются в сервис вообще без необходимости разгадывать капчу! Вот такая вот капча без капчи.

За последний год мы прошли длинный путь, но идей на будущее от этого меньше не стало. Мы уже работаем над тем, чтобы получать более точные вердикты в реальном времени и без перенаправления на промежуточные страницы. И уже есть первые успехи. Один частный пример: теперь в Safari в режиме Инкогнито встретиться даже с галочкой «Я не робот» вероятность примерно в десять раз ниже, чем раньше. Кроме того, хотим пробовать новые, более добрые форматы капчи для тех случаев, когда без неё никак.

Формы капчи могут быть разные, но главное в том, чтобы относиться к людям по-человечески и уважать их время.

«Финч»: трогательное роуд-муви про дружбу человека и робота | Кино, Обзоры кино

От некоего катаклизма Земля погружается в постапокалиптическую разруху. Талантливый инженер Финч (Том Хэнкс) живёт в убежище в компании любимого пса и нескольких самодельных роботов. Радиоактивное отравление начинает медленно убивать его, и Финч создаёт робота Джеффа, который позаботится о псе, когда хозяина не станет. Надвигающаяся песчаная буря вынуждает изобретателя и его творение отправиться на поиски нового безопасного места. И в этом путешествии, как водится, не обойдётся без уроков на тему «что значит быть человеком».

Finch

Жанр: постапокалиптическая драма, роуд-муви
Режиссёр: Мигель Сапочник
В ролях: Том Хэнкс, Калеб Лэндри Джонс (озвучка)
Премьера: 5 ноября 2021
Возрастной рейтинг: 12+
Похоже на: «Инопланетянин» (1982) • «Короткое замыкание» (1986) • «Дорога» (2009)

«Финч» — лишь вторая полнометражная работа режиссёра Мигеля Сапочника (причём его дебют, картину «Потрошители», сейчас вряд ли кто-то помнит). Зато он поставил самые впечатляющие и изобретательные в визуальном плане эпизоды «Игры престолов». Они имели узнаваемый почерк и выделялись на фоне других, а это большое достижение для сериального режиссёра. После таких эпизодов, как «Битва бастардов» и «Суровый дом», многие мечтали увидеть большое кино от него.

Но его новая картина для Apple TV+ с Томом Хэнксом — не совсем то, чего ждёшь от режиссёра, сделавшего себе имя на масштабных битвах. «Финч» — очень личное, тихое и трогательное кино, снятое с избытком крупных планов, призванных сблизить нас с героями. Никакого эпического размаха тут нет и в помине. Зато здесь есть гуманистический дух, присущий лучшим картинам Стивена Спилберга и Роберта Земекиса (который, кстати, был одним из продюсеров «Финча»). Да и в целом «Финч» очень напоминает фантастику 1980-х с присущей ей размеренностью и продолжительными диалогами. Поэтому даже драматичные сцены на фоне ливня воспринимаются не как надоевшие клише, а как попытка повторить атмосферу и воссоздать ощущения от любимых фильмов вроде «Инопланетянина» или «Короткого замыкания».

Безусловно, фильм можно обвинить в неоригинальности — кинематограф полнится подобными историями о дружбе с пришельцем/привидением/роботом/подставьте своё и вопросами, что делает человека человеком. Да и жанр постапокалиптического роуд-муви за последние годы уже начал утомлять. Но фильм выручает интонация, с которой рассказывается эта история. Сапочник находит баланс между прямолинейностью, драматичностью и комедийными вставками, не перегибая с сантиментами или умильностью робота. На химии дуэта Финча с Джеффом работают все механизмы картины. Инженер учит робота всему, что необходимо для выживания в этом мире, от ходьбы до действий при приближении песчаной бури. А благодаря юмору (робот очень любит выдавать занимательные, хоть и странные факты и не понимает метафоры), часто визуальному, напоминающему немое кино, мы быстро сближаемся с героями.

В этом огромная заслуга Тома Хэнкса. За исключением коротенького флэшбека, его герой остаётся здесь единственным живым человеком на все два часа хронометража. Актёр без видимых усилий примеряет уже давно привычный ему образ простого рубахи-парня с камнем на душе. Финч — не герой, а простой человек, пытающийся приспособиться к изменившемуся миру. Им движут понятные всем вещи: например, любовь к собаке или желание наконец-то увидеть мост Золотые Ворота. Хотя по ходу путешествия, во время которого он будет делиться с Джеффом историями из жизни, вряд ли получится назвать Финча по-настоящему интересным и сложным героем. Но это, опять же, вписывается в дух старой фантастики, которой пронизан фильм, да и Хэнкс выжимает из образа всё возможное.

Сапочника больше интересует быт и переживания его героя, чем подробности устройства здешнего мира или причины апокалипсиса. Куда красноречивее слов — предметность окружающей действительности. Многочисленные детальки и болты на теле робота или кнопки на приборной панели грузовика создают ощущение реальности, вещественности. Сцены в убежище Финча без слов дают представление о его быте и жизни благодаря визуальным мелочам, которыми полнится вся картина. И хотя малейшие подробности об этой вселенной приходится выяснять уже по ходу дела, а многое так и останется за кадром, в местную постапокалиптическую Америку без труда веришь.

А ещё эту атмосферу трудно представить без инструментального сопровождения Густаво Сантаолальи. Оскароносному автору саундтрека к дилогии The Last of Us уже не привыкать работать в жанре постапокалипсиса, но музыку из игр Naughty Dog ни за что не спутать с той, что сопровождает Джеффа и Финча в их путешествии.

После «Финча» становится немного жаль, что Мигель Сапочник возвращается в мир «Песни льда и пламени» (он будет одним из шоураннеров и режиссёров грядущего «Дома дракона»). Своей второй картиной он доказал, что его талант не ограничивается фэнтезийными баталиями, и было бы очень интересно взглянуть, как ещё он мог бы применить его в большом кино. Да, «Финча» нельзя назвать выдающимся фильмом, а поднятые темы встречались в кинематографе уже много раз. Но и перед его обаянием и искренностью тоже трудно устоять. К тому же картина не лишена своего визуального языка и авторского взгляда.

Amazon.com: YOUNGTOY TOBOT V Mini Big Troll 1ea Transformer Robot from Big Trail & Troll Korean Animation Robot Character Возраст персонажа Рекомендуемый возраст: 36+ Месяц: Игрушки и игры


В настоящее время недоступен.
Мы не знаем, когда и будет ли этот товар снова в наличии.
  • Убедитесь, что это подходит, введя номер модели.
  • Корейский мультсериал Тобот V Персонаж «Капитан полиции» товар.
  • Рекомендуемый возраст: 36+ Месяц; Материал: ABS
  • Продукт Южной Кореи, OEM-производитель Китая, поставляется из Южной Кореи / Размер (коробка): 7 x 3,1 x 9,8 дюйма (170 x 80 x 250 мм)
  • Из-за разницы в освещении и настройках экрана товар цвет может немного отличаться от изображения. Пожалуйста, позвольте небольшую разницу в размерах из-за различных ручных измерений.
  • Если продукт не имеет дефектов, простой обмен или возврат невозможен.

Борьба с онлайн-ботами, троллями и людьми

Когда на карту поставлены цивилизованность и демократия, боты, тролли и их охотники ведут в Интернете игру в кошки-мышки.

(Inside Science) — Полвека назад, в 1968 году, Филип К. Дик опубликовал классическую научно-фантастическую книгу Мечтают ли андроиды об электроовцах? , который впоследствии стал фильмом «Бегущий по лезвию». В книге Дик представил устройство под названием машина Фойгта-Кампфа — инструмент для допроса, специально разработанный для того, чтобы отличить андроида от человека. Теперь жизнь имитирует искусство, а боты, изображающие из себя людей, свирепствуют в Интернете. Но, в отличие от андроидов в романе Дика, у современных ботов нет ни тела, ни даже лица.Они вмешивались в президентские выборы в США в 2016 году, и некоторые эксперты говорят, что готовы продолжить наступление на промежуточных выборах 2018 года.

Но если мы не можем собрать их в комнате и задать им ряд вопросов, как мы можем выделить ботов среди миллиардов онлайн-толпы?

I. Программисты и детективы

«Я никогда не могу заснуть. Но я могу спокойно лежать и не пикнуть.»
— Дэвид, «Искусственный интеллект ИИ» (2001)

Если кто-то пишет в Твиттере 24 часа в сутки, то это может быть человек, который пьет много Red Bull, но более вероятно, что это бот.

В отличие от физических роботов, современные боты — это всего лишь компьютерные алгоритмы, выполняющие любые задачи, для которых их разработали программисты. Бот может делать что угодно: от рассылки спама на миллион адресов электронной почты до отключения веб-сайта, перегрузив его пропускную способность, до написания впечатляюще связных стихов и публикации их в Твиттере.

В случае с ботами Твиттера, пытающимися манипулировать циклом политических новостей, просмотр временных меток твитов учетной записи — это только один из способов определить, были ли сто или около того символов написаны человеком или ботом.Есть много более тонких подсказок, которые можно использовать, чтобы распознать ботов, притворяющихся людьми.

Политологи и компьютерные инженеры изучают политических ботов и троллей в социальных сетях по крайней мере с середины 2000-х годов, задолго до российской киберкампании по проникновению в платформы социальных сетей с целью повлиять на президентские выборы в США в 2016 году.

В недавно опубликованном исследовании, опубликованном в журнале Big Data , исследователи обучали кодеров-людей помогать идентифицировать русских ботов в Твиттере в 2014 и 2015 годах.Программистов-людей — 50 студентов бакалавриата из Москвы — научили искать подсказки, например, если аватар пользователя пустой или выглядит как стандартная фотография, если имя пользователя содержит слишком много цифр, а описание профиля выглядит слишком общим. Кодировщики также искали более тонкие детали, например, выглядело ли соотношение между друзьями и подписчиками учетной записи ненормальным или ее твиты содержали только текст, а не фотографии.

Но «боты не выдают себя ботами», — сказал Джошуа Такер, политолог из Нью-Йоркского университета и автор статьи.Не имея легкого доступа к истине, они сделали следующую лучшую вещь — сравнили ответы людей-кодировщиков, которые оказались чрезвычайно совместимыми друг с другом. Если аккаунт в Твиттере выглядит как бот и звучит как бот для 49 из 50 человек, то, вероятно, это бот.

В общей сложности 50 обученных программистов обнаружили примерно 250 ботов среди примерно тысячи учетных записей Twitter, которые писали о российской политике во время событий, связанных с аннексией Крыма Россией. Но тысяча учетных записей — это только вершина айсберга Twitter.Для дальнейшего исследования исследователям пришлось самим позаимствовать мощность компьютеров.

Используя алгоритмы машинного обучения в сочетании с данными, собранными программистами-людьми, исследователи обучили компьютеры анализировать почти четверть миллиона учетных записей Twitter, которые в 2014 и 2015 годах написали более 15 миллионов твитов.

Они обнаружили, что из 250 000 учетных записей 97 000 были активны в течение всего периода, из которых примерно две трети могут быть ботами. В определенные дни эти предполагаемые боты размещали более половины всех твитов, связанных с российской политикой.Как и ожидалось, боты с меньшей вероятностью сообщали о своем местоположении или твитили с мобильного устройства, но они также, как правило, ретвитили больше, чем люди, а когда и делали, то ретвитили только текст без каких-либо ссылок.

Вопреки тому, что ранее ожидали исследователи, эти боты не просто активно твитят и ретвитят, как старые боты, которые начали наводнять онлайн-форумы и комментировать ветки с рекламой виагры в начале 2000-х годов. Вместо этого они, кажется, развили некоторую утонченность в своем подходе.Это говорит о том, что между программистами Twitter и российскими разработчиками ботов могла быть битва, каждый из которых пытался получить контроль над тем, какая информация передается в каналы Twitter других пользователей.

В этой войне между программистами и разработчиками ботов нет ничего нового — подумайте о вашем спам-фильтре электронной почты и «нигерийском принце» — но теперь эта война распространилась на все уголки Интернета и, в свою очередь, на каждый аспект наша современная жизнь.

«Одна из важных вещей, которую мы заметили, — это увеличение количества заголовков на RT (ранее Russia Today) и Sputnik, когда мы ищем новости в Интернете.По сути, это спонсируемые государством медиа-организации из России, — сказал Такер из Нью-Йоркского университета. — По сути, у вас есть алгоритмы ранжирования поиска Google, пытающиеся выяснить, как избежать того, что делают эти боты, и у вас есть боты, пытающиеся замаскироваться от Google».

«И игра в кошки-мышки продолжается», — сказал он.

II. Человеческие тролли и спонсоры

«Наш девиз: больше человечность, чем человечность.»
— Доктор Элдон Тирелл, «Бегущий по лезвию» (1982)

Какими бы продвинутыми ни были боты сегодня, поддельные новости в Интернете по-прежнему в основном генерируются людьми. В перетягивании каната между ботами и ботами-детективами политические деятели иногда могут одолеть друг друга, потратив немного больше денег и наняв реальных людей, широко известных как платные тролли, чтобы также влиять на информацию в Интернете.

Платные тролли — это люди, занимающиеся, например, продвижением определенных политических программ в Интернете, и их гораздо труднее обнаружить, чем ботов. В конце концов, если не выкапывать чей-то IP-адрес, как узнать, идет ли комментарий на YouTube из подвала Кремля или бунгало в Индонезии?

Глобальная доступность Интернета и анонимность пользователей дали ботам и троллям власть в отличие от любых других средств массовой информации, существовавших до этого.Давно прошли времена пропаганды посредством разбрасывания листовок и взлома телебашен. Сегодня платные тролли могут распространять фальшивые новости прямо в американские дома из любой точки планеты, если есть подключение к Интернету.

В целях борьбы с эксплуатацией со стороны троллей, спонсируемых государством, Facebook начал помечать платную политическую рекламу и требовать проверки пользователей, ведущих популярные страницы Facebook. По словам Робина Каплана, эксперта по социальным сетям из Исследовательского института данных и общества в Нью-Йорке, хотя ни один из этих протоколов не может полностью устранить дезинформацию в Интернете, они обеспечивают некоторую защиту.

«Если на веб-сайте требуется номер телефона для подтверждения учетной записи, это означает, что для создания поддельной учетной записи вам потребуется купить одноразовый телефон, что станет дополнительным вложением», — сказал Каплан.

Анонимность долгое время была опорой Интернета. Обоюдоострый меч, анонимность побуждает людей свободно высказывать свое мнение, не опасаясь общественного контроля или даже юридических последствий. Разные страны подошли к вопросу анонимности в Интернете с разным уровнем контроля.Китайское правительство, например, теперь требует, чтобы все пользователи Weibo — китайского аналога Twitter в рамках Великого брандмауэра — лично подтверждали свои учетные записи через программу «Real Name Registration».

На первый взгляд, цель программы «Регистрация реальных имен» — остановить распространение дезинформации в Интернете, но некоторые комментаторы видят в этом попытку правительства еще больше контролировать онлайн-выступление. В Китае уже действуют более строгие законы, чем в США, для пользователей сети, например, запрещающие онлайн-платформам создавать, публиковать или продвигать контент, который «наносит ущерб национальной чести и интересам».

«Всегда будет компромисс между анонимностью и подотчетностью, свободой слова и вежливостью. Я не думаю, что имеет смысл говорить, что мы должны быть на той или другой стороне — есть золотая середина. , но никто не знает, где находится эта золотая середина, — сказал Ришаб Нитьянанд, также исследователь из Исследовательского института данных и общества. — Это философские дебаты, которые должны состояться».

III. Человеческие законодатели и регулирующие органы

«В английском языке 400 000 слов, и семь из них нельзя произнести по телевизору.Какое это соотношение!»
— Джордж Карлин, «Семь слов, которые нельзя говорить по телевидению» (1972)

Кто-то может поклясться в Твиттере перед миллионами подписчиков, но не в местном радиошоу, которое слушают сотни. Почему?

«Интернет всегда был подобен Дикому Западу, — сказал Таддеус Хоффмайстер, эксперт по праву социальных сетей из Дейтонского университета в Огайо.

Информация в Интернете пользуется гораздо большей свободой по сравнению с телевидением и радио, которые более строго регулируются Федеральной комиссией по связи.Каждая платформа социальных сетей обычно имеет свой собственный набор принципов сообщества. Например, в Твиттере вы можете найти определенные виды контента для взрослых, которые запрещены на Facebook.

Ранее в этом году правительство США предприняло новый шаг в регулировании контента в Интернете. Новый закон, подписанный президентом Дональдом Трампом в апреле этого года, называется Законом о прекращении действий торговцев людьми в целях сексуальной эксплуатации и разрешении штатам и жертвам борьбы с торговлей людьми в целях сексуальной эксплуатации в Интернете или FOSTA-SESTA . Он добавляет исключение к существующему разделу 230 Закона 1996 года. Закон о приличии в сфере коммуникаций , который защищает онлайн-платформы от ответственности за то, что публикуют их пользователи.

Законодатели назвали Backpage — веб-сайт онлайн-рекламы, похожий на Craigslist, — одним из основных мотивов принятия закона. Сайт неоднократно подвергался судебному преследованию за умышленное размещение рекламы, связанной с торговлей людьми в целях сексуальной эксплуатации и детской порнографией, но юристы изо всех сил пытались выиграть судебные процессы из-за раздела 230.

Однако, хотя закон может быть подкреплен добрыми намерениями, Хоффмайстер предупредил о его возможных непредвиденных последствиях. Юристы раскритиковали формулировку законопроекта как «чрезвычайно расплывчатую и расплывчатую».«После принятия закона многие веб-сайты, включая Craigslist и Reddit, закрыли часть своих сообществ.

По словам Хоффмайстера, дополнительные правила могут также помочь контролировать рынок цемента для существующих технологических гигантов, таких как Twitter и Facebook, у которых уже есть системы, отслеживающие пользовательский контент. Согласно собственному отчету Facebook за этот месяц, только за первые три месяца 2018 года компания удалила 21 миллион единиц порнографического контента. По словам Хоффмайстера, у небольшой стартап-компании может не быть таких же ресурсов, чтобы соответствовать строгим правилам.

«Когда Цукерберг запускал Facebook из своего общежития, ему не нужно было беспокоиться об этих вещах. Итак, если мы примем новые правила для контроля ботов и фейковых новостей, как это повлияет на следующий стартап?» — сказал Хоффмайстер.

Даже если сейчас мы введем новые законы и протоколы платформы для обуздания этих вредоносных ботов и троллей, не будет ли слишком поздно? Согласно недавнему исследованию, негативная пристрастность — идея о том, что люди объединяются не для поддержки своих собственных, а для противодействия другой стороне — растет и способствует неучтивости в социальных сетях.Итак, является ли это недавнее усиление раскола просто естественным развитием двухпартийной системы Соединенных Штатов или есть что-то еще, что подпитывает огонь?

IV. Люди-модераторы и силовики

«Толпа всегда состоит из людей».
— Аттикус Финч, «Убить пересмешника» (1960)

Интенсивные дебаты между заклятыми врагами-демократами и республиканцами так же характерны для Америки, как фейерверк 4 июля, но некоторые опросы показывают, что политический раскол сегодня больше, чем за последние десятилетия.Чтобы изучить тенденции политических споров в социальных сетях, Нитиананд заглянул в Reddit, онлайн-агрегатор новостей и дискуссионную платформу, популярность которой с начала 2010-х годов быстро возросла.

В отличие от Facebook и Twitter, сообщения и комментарии на Reddit постоянно модерируются людьми-добровольцами, а также компьютерными алгоритмами. Весь контент на Reddit сортируется по более мелким сообществам, называемым сабреддитами, с такими именами, как /r/либеральный или /r/консервативный, каждое со своим собственным набором правил, автоматическими фильтрами и модераторами-людьми, которые отслеживают и удаляют все, что нарушает эти правила. Из-за этого Reddit предоставляет исследователям тысячи микромиров, чтобы исследовать, как каждое из этих сообществ субреддитов формирует поведение своих пользователей.

Проанализировав более 100 миллионов комментариев на Reddit в период с 2015 по 2016 год, Нитьянанд обнаружил явную асимметрию между консервативными и либеральными субреддитами. За этот период в консервативных сабреддитах на 1600% увеличилось количество ссылок, которыми обменивались спорные источники, известные распространением теорий заговора и фейковых новостей, в то время как в либеральных сабреддитах такой активности почти не наблюдалось.

Хотя трудно сказать, связано ли увеличение на 1600 процентов с сознательными усилиями по подавляющему проникновению в консервативные сабреддиты по сравнению с либеральными сабреддитами, Нитиананд считает, что разница в правилах и философии модерирования в разных сабреддитах сыграла значительную роль в формировании разницы. Нитьянанд обнаружил, что посты из противоречивых источников на либеральных сабреддитах обычно быстро отключаются или удаляются модераторами и автоматическими фильтрами, а их пользователи практически не принимают участия. Напротив, модераторы из консервативных сабреддитов используют относительно «свободные руки» подход и предоставляют своим пользователям больше свободы для публикации и обмена контентом.

Это бездействие модераторов в консервативных сабреддитах также, вероятно, вызвало огромный приток комментариев, многие из которых были оскорбительными и ненавистными, исходящими от пользователей, связанных с экстремистскими сабреддитами, согласно исследованию Нитьянанда. Его исследование показало, что консервативные сабреддиты испытали более чем шестидесятикратное увеличение такой активности, что привело к U.S. президентские выборы, в то время как либеральные сабреддиты испытали только двукратный рост аналогичного трафика.

Команда Нитиананда также обнаружила аккаунты троллей, которые запускали подстрекательские комментарии с обеих сторон политического спектра. Поскольку подстрекательские комментарии, как правило, порождают больше комментариев, эти нецивилизованные аргументы поддерживаются и повторяются в сабреддитах, где модераторы либо не хотят, либо не могут эффективно помечать и удалять комментарии.

«Мы должны помочь предоставить инструменты уже перегруженным модераторам, чтобы упростить модерацию контента», — написал Нитьянанд в электронном письме.

Однако, в конце концов, независимо от того, насколько агрессивны эти боты и тролли в сети, они не могут напрямую выбирать наше правительство за нас. Мы, люди, делаем.

V. Граждане и избиратели

«R2-D2! Ты лучше знаешь, чем доверять чужому компьютеру!»
— C3PO, «Звездные войны: Эпизод V — Империя наносит ответный удар» (1980)

Сила ботов и троллей заключается в их способности обманывать людей. В недавнем отчете RAND Corporation, американского некоммерческого аналитического центра по вопросам политики, приводится ряд рекомендаций по защите демократии от появления злонамеренных ботов и троллей в социальных сетях.Рекомендации группы включают технические подходы, такие как разработка и внедрение более эффективных методов идентификации и маркировки ботов и троллей, а также «автономные» решения, такие как просвещение общественности, чтобы быть более бдительными в отношении фейковых новостей и слухов.

Вместо того, чтобы полагаться исключительно на компании социальных сетей для борьбы с этой борьбой в одиночку, в отчете странам рекомендуется обучать своих граждан медийной грамотности, расширять и улучшать контент, созданный местными заслуживающими доверия новостными агентствами, что позволит ему лучше конкурировать с пропагандой, спонсируемой иностранными государствами. и расширяйте возможности влиятельных лиц в социальных сетях.

По словам Такера, борьба между противоборствующими политическими сторонами по поводу того, как информация передается в Интернете, может спровоцировать что-то вроде гонки вооружений, когда обе стороны постоянно пытаются превзойти друг друга. По его словам, это создает новое поле битвы, где политическая власть может быть завоевана или потеряна за счет манипулирования гражданами, которые могут оставаться в неведении о мотивах и действиях этих субъектов.

«У вас есть режимы, которые пытаются найти способы использовать социальные сети для усиления своей власти, но у вас также есть противники этих режимов, которые пытаются улучшить свои возможности для борьбы с ними», — сказал Такер.

Если «информация — это валюта демократии» — цитата, неуместно приписываемая Томасу Джефферсону на некоторых веб-сайтах, — тогда понятно, почему политические деятели могут стремиться манипулировать информацией в социальных сетях и Интернете. В конце июля Facebook объявил, что в преддверии промежуточных выборов закрыл 32 поддельных аккаунта, которые распространяли в Интернете сообщения, вызывающие разногласия.

«Было много идеологий, вовлеченных в то, чем должен быть Интернет — я думаю, кто-то выразился так — он должен дать непрозрачность бессильным и сделать прозрачным власть имущих.Но интернет развился из этого и продолжает меняться, — сказал Нитьянанд. — Мы должны помочь общественности понять, что это то, что ее действительно должно волновать».

Робот Тролль — Роблокс

Робот Тролль — Роблокс

Пожалуйста, включите Javascript, чтобы использовать все функции этого сайта.

Запускаем Роблокс…

Связь с людьми…

Отметьте Запомнить мой выбор и нажмите OK в диалоговом окне выше, чтобы в будущем присоединяться к опыту быстрее!

  • 1

    Нажмите Сохранить файл , когда появится окно загрузки

  • 2

    Перейдите в раздел «Загрузки» и дважды щелкните RobloxPlayer.исполняемый файл

  • 3

    Нажмите Выполнить

  • 4

    После установки нажмите Присоединиться к , чтобы присоединиться к акции!

  • 5

    Нажмите ОК , когда появится предупреждение

Установщик Roblox должен загрузиться в ближайшее время. Если это не так, начните загрузку сейчас.

Мужчина собирается жениться на кукле-роботе

Житель Мэриленда Джоуи Моррис попал в заголовки газет после того, как признался в своей вечной любви к своей кукле-роботу по имени «Роботролль».»

Недавно 29-летний парень рассказал Unilad , что влюбился в фигурку из коллекции BattleTrollz после того, как ее ярко-розовые волосы и «удовлетворенная улыбка» покорили его сердце, когда он просматривал eBay в декабре 2017 года.

«Я нашел RoboTroll, когда я исследовал линейку BattleTrollz, чтобы удовлетворить свой интерес к ностальгии по 90-м», — сказал он изданию. «Веб-сайт, на который я смотрел, показал мне всю коллекцию всех троллей, и когда я увидел RoboTroll, я был поражен.

«Думаю, меня привлекло его выражение лица, — продолжил он. — В то время как большинство других боевых троллей рычали, Роботролль, казалось, довольно улыбался. Его голубые глаза гармонировали с серебристо-голубой цветовой гаммой, а его розовые волосы были по-настоящему эффектными».

Сразу же влюбившись в игрушку, Моррис объяснил: «Я знал, что это была любовь с ним, потому что это заставило мое сердце чувствовать себя хорошо».

Это это не первый объект, с которым Моррис оказался в романтических отношениях, рассказывая Unilad, что он впервые понял, что его привлекают объекты в 10 лет, когда он хотел подружиться с лампой, а затем, став старше, перешел к игрушке на Хэллоуин под названием Donna the Dead and Transformers персонаж Оптимус Прайм.

Однако перед Роботроллем все они бледнеют.

«Моя любовь к этим предметам никогда не длилась так долго, как моя любовь к Роботроллю, который на данный момент является моей главной любовью», — проговорил Моррис.

И хотя предстоящая свадьба может быть не самой обычной, Моррис считает, что ему повезло, что у него есть относительно поддерживающая группа.

«Мне очень повезло, так как мои друзья и некоторые члены моей семьи принимают мою ориентацию — и даже несмотря на то, что они шутят по этому поводу, они поддерживают меня», — сказал он изданию.«Моя мама не совсем понимает мои чувства, но все время принимает их».

Это не значит, что он не сталкивается с недоброжелателями.

«Однако некоторые люди не согласны с этим — мне сказали, что я предпочитаю психическое заболевание, а некоторые даже сравнили это с зоофилией», — признался он, сказав, что пытается выбросить ненавистников из головы и сосредоточиться. о своих счастливых отношениях.

«Я стараюсь игнорировать этих людей и дистанцироваться от них, так как я счастлив в отношениях с Роботроллем», — сказал он.«Мне легче завязывать романтические отношения с предметами, чем с людьми, поэтому я доволен своей сексуальностью».

Фото: Билл О’Лири/The Washington Post через Getty Images

ВЕСЕЛОЕ: Фанаты тролят Янниса Адетокумбо в роли робота, выполняющего штрафные броски на Олимпийских играх 2020 года в Токио

Сборная США по баскетболу официально начала свою кампанию на Олимпийских играх 2020 года в Токио. В звездном составе во главе с Кевином Дюрантом и Дэмианом Лиллардом и команда Джейсона Татума из США — большие фавориты на титул.

РЕКЛАМА

Продолжение статьи под этим объявлением

Завоевав три золотые медали подряд, Дюран и Ко надеются выиграть свой четвертый чемпионат подряд, но их путь ни в коем случае не будет легким. В своей первой игре кампании они играют против европейских джаггернаутов Франции во главе с Руди Гобером.

РЕКЛАМА

Продолжение статьи под этим объявлением

Игра началась для чемпионов отлично, они повели со счетом 22-15 в конце первой четверти.В то время как такие игроки, как Дамиан Лиллард и Кевин Дюрант, действительно внесли свой вклад, именно Бам Адебайо стал лучшим бомбардиром США. Завершив тайм со счетом 45-37, сборная США уверенно смотрелась в круиз-контроле.

Но французская команда совершила невероятное возвращение в игру. За 2 минуты до конца третьей четверти французская команда сократила отрыв до 2 очков, поскольку их большой человек продолжает доминировать. Этот первый матч между сборной США и сборной Франции оказался напряженным.Ожидайте увидеть лучшее от обеих команд в «Финальных 12 минутах».

Уникальное шоу в перерыве между таймами на Олимпийских играх 2020 в Токио

Шоу в перерыве между таймами НБА обычно состоят из нескольких представлений. Будь то группа, исполняющая оригинальную песню, или выступающая танцевальная группа, или избранные фанаты, участвующие в различных небольших соревнованиях, шоу в перерыве между таймами в лиге имеют свое очарование.

Но для Олимпийских игр 2020 года в Токио страна-организатор пошла совсем другим путем. Приведя гигантского робота к линии штрафных бросков, а затем и к линии трех очков, организаторы используют бота, чтобы попадать в идеальные корзины.

Этот визуальный образ, безусловно, привлек внимание многочисленных поклонников, которые получили свою долю реакции на него.

Болельщики сравнили Янниса Адетокумбо с гигантским роботом на олимпийском шоу в перерыве между таймами

Хотя шоу в перерыве матча между США и Францией было уникальным, болельщики НБА немало посмеялись над роботом. Робот, несомненно, может быть точным, но, учитывая, сколько времени занимал весь процесс съемки, фанаты сравнили бота с двукратным MVP Яннисом Адетокумбо.

Кажется, я смотрю, как Яннис выполняет штрафной бросок

— Грустный фанат Селтикс/Пэтс (@PlayoffJayson) 25 июля 2021 г.

РЕКЛАМА

this ad

Некоторые из этих реакций были слишком смешными, и, учитывая, как много фанатов критиковали «Греческого урода» за его игру со штрафными бросками, вполне естественно, что фанаты пришли в бешенство от сравнений.

Понравилось читать эту статью? Загрузите наше эксклюзивное приложение, чтобы получать круглосуточное освещение, последние мемы и подшучивания в социальных сетях.Нажмите сюда для того, чтобы скачать.

Киборги, тролли и боты: Путеводитель по дезинформации в Интернете

Автор: ДЭВИД КЛЕППЕР media-technology-4086949d878336f8ea6daa4dee725d94

НЬЮ-ЙОРК (AP) — Киборги, тролли и боты могут заполнить Интернет ложью и полуправдой. Понимание их является ключом к пониманию того, как дезинформация распространяется в Интернете.

Как показали выборы 2016 года, социальные сети все чаще используются для распространения ложных заявлений и разделения американцев по таким острым вопросам, как раса и иммиграция.Исследователи, изучающие дезинформацию, предсказывают, что перед президентскими выборами в этом году ситуация ухудшится. Вот руководство для понимания проблемы:

ДЕЗИНФОРМАЦИЯ VS. ДЕЗИНФОРМАЦИЯ

Политическая дезинформация существовала еще до появления печатного станка, но Интернет позволил лжи, теориям заговора и преувеличениям распространяться быстрее и дальше, чем когда-либо.

Дезинформация определяется как любая ложная информация, независимо от умысла, включая честные ошибки или неправильное понимание фактов.Дезинформация, с другой стороны, обычно относится к дезинформации, созданной и преднамеренно распространяемой с целью запутать или ввести в заблуждение.

Дезинформация и дезинформация могут появляться в политической рекламе или сообщениях в социальных сетях. Они могут включать фальшивые новости или поддельные видеоролики. Одним из вопиющих примеров прошлогодней дезинформации стало видео со спикером палаты представителей Нэнси Пелоси, которое было замедлено, чтобы ее голос звучал так, как будто она невнятно произносит слова.

Исследования показывают, что ложные утверждения распространяются легче, чем точные, возможно, потому, что они созданы для привлечения внимания.

Полное освещение: проверка фактов AP

Ученые из Массачусетского технологического института проанализировали более 126 000 историй, некоторые из которых были правдивыми, а некоторые — ложными, которые были опубликованы в Твиттере миллионы раз с 2006 по конец 2016 года. Они обнаружили, что вводящие в заблуждение или неверные истории путешествовали шесть раз быстрее — и охватил больше людей.

Дезинформацию в Интернете обвиняют в углублении политической поляризации Америки и усугублении недоверия к правительству. О рисках стало известно в 2016 году, когда российские тролли создали фальшивые аккаунты для распространения и усиления постов в социальных сетях о спорных вопросах.

ВОЙНА БОТОВ И КИБОРГОВ

Одноразовыми пехотинцами в этом цифровом конфликте являются боты. В контексте социальных сетей эти автономные программы могут управлять учетными записями для распространения контента без участия человека.

Многие безобидны, твитят случайные стихи или фотографии домашних животных. Но другие не замышляют ничего хорошего и созданы, чтобы походить на реальных пользователей.

Одно исследование, проведенное учеными из Университета Южной Калифорнии, проанализировало твиты, связанные с выборами, отправленные в сентябре и октябре 2016 года, и обнаружило, что каждый пятый был отправлен ботом.В ходе исследования, проведенного в 2018 году, исследовательский центр Pew пришел к выводу, что учетные записи, подозреваемые в том, что они являются ботами, ответственны за две трети всех твитов со ссылками на популярные веб-сайты.

В то время как живые пользователи Твиттера часто публикуют сообщения несколько раз в день на самые разные темы, наиболее очевидные боты будут писать сотни раз в день, днем ​​и ночью, и часто только по определенной теме. Они с большей вероятностью будут репостить контент, а не создавать что-то оригинальное.

А еще есть киборг, своего рода гибридная учетная запись, сочетающая неутомимость бота с человеческой проницательностью.Учетные записи киборгов — это учетные записи, в которых человек периодически берет на себя учетную запись бота, чтобы отвечать другим пользователям и публиковать оригинальный контент. Они дороже и требуют больше времени в эксплуатации, но они не выдают себя за роботов.

«От бота можно многое получить, но, возможно, он не самого лучшего качества», — сказал Эмилио Феррара, исследователь данных из Университета Южной Калифорнии, соавтор исследования ботов в Твиттере. «Проблема с киборгами в том, что их намного сложнее поймать и обнаружить.

ОБНАРУЖЕНИЕ БОТОВ

Ботов бывает трудно обнаружить даже лучшим исследователям.

«У нас есть 12 способов обнаружить бота, и если мы обнаружим семь или восемь из них, мы получим довольно высокую уверенность», — сказал Грэм Бруки, директор Лаборатории цифровых криминалистических исследований Атлантического совета, организации из Вашингтона, округ Колумбия. который изучает связи между социальными сетями, кибербезопасностью и правительством.

Тем не менее, Бруки вспомнил случай с учетной записью Twitter из Бразилии, которая публиковалась почти постоянно — иногда раз в минуту — и демонстрировала другие характеристики бота.И все же: «Это была маленькая бабушка, которая сказала: «Это я!» другие пользователи социальных сетей с другим мнением.

Майкл Уотси, 43-летний житель Нью-Джерси, который часто пишет в Твиттере о своей поддержке президента Дональда Трампа, сказал, что люди, с которыми он спорит в Интернете, неоднократно называли его русским ботом. Обвинения побудили Twitter временно приостановить действие его учетной записи более одного раза, вынуждая его подтвердить, что он человек.

«Все, что я пытаюсь сделать, это использовать свое право на свободу слова, закрепленное в Первой поправке», — сказал он. «Это безумие, что дошло до этого».

ТРОЛЛИ И КУКЛЫ

Словом тролль когда-то называли зверей из скандинавской мифологии, которые прятались под мостами и нападали на путешественников. Теперь это также относится к людям, которые размещают сообщения в Интернете, чтобы спровоцировать других, иногда для собственного развлечения, а иногда в рамках скоординированной кампании.

Носочные марионетки — еще один обитатель социальных сетей со странным названием, в данном случае тип аккаунта-самозванца.В то время как некоторые пользователи могут использовать анонимные учетные записи просто для того, чтобы не идентифицировать себя, владельцы sock-pupple используют учетные записи, чтобы нападать на своих критиков или хвалить себя. В октябре сенатор от штата Юта Митт Ромни признал, что у него был секретный аккаунт в Твиттере под именем «Пьер Делекто», который он использовал для защиты от критики.

ФЕЙКОВЫЕ ВИДЕО: ГЛУБОКИЕ, ДЕШЕВЫЕ И ПОЛЕЗНЫЕ

Дипфейки — это видео, созданные в цифровом виде с помощью искусственного интеллекта или машинного обучения, чтобы создать впечатление, что произошло что-то, чего на самом деле не было.Они рассматриваются как новая угроза, поскольку улучшения в программном обеспечении для редактирования видео позволяют мошенникам создавать все более реалистичные кадры, например, бывшего президента Барака Обамы, произносящего речь, которую он никогда не произносил, в обстановке, которую он никогда не посещал. Они дороги и трудны в создании, особенно в убедительной форме.

В прошлом месяце Facebook объявил, что запретит дипфейковые видео — за исключением сатиры. Начиная с марта Twitter запретит фальшивые видео, фотографии и аудиозаписи, «которые могут причинить вред.«Материал, с которым манипулируют, но который не обязательно вреден, может получить предупреждающую этикетку. А YouTube запрещает «обманное использование манипулируемых медиа», которое может представлять серьезный риск причинения вреда.

В отличие от этого, мелкими подделками, дешевыми подделками или глупыми подделками являются видео, которые были обработаны с использованием более простых методов, таких как замедление или ускорение отснятого материала или его обрезка.

Примеры включают подделанное видео, опубликованное Консервативной партией Великобритании перед декабрьскими выборами в Великобритании, в котором создается впечатление, что представитель Лейбористской партии изо всех сил пытается ответить на вопрос о Brexit.

Поскольку их легко и недорого изготовить, дешевые подделки могут быть ничуть не менее опасными, чем их более причудливый родственник, дипфейк.

«Дипфейки становятся более реалистичными и их легче делать», — сказал Джон Павлик, профессор журналистики в Университете Рутгерса, который изучает, как технологии и Интернет меняют привычки общения. «Но вам не нужно иметь специальное программное обеспечение, чтобы сделать эти более простые».

Исследователи, изучающие изменение привычек американцев в отношении СМИ, рекомендуют людям обращаться к различным источникам и точкам зрения для получения новостей, использовать критическое мышление при оценке информации в социальных сетях и дважды подумать, прежде чем размещать вирусные заявления. В противном случае, говорят они, дезинформация продолжит поступать, а пользователи продолжат ее распространять.

«Единственное решение, — сказал Феррара, — это образование».

Как обнаружить ботов и троллей в социальных сетях

Эти вредоносные боты могут серьезно исказить дебаты , особенно когда они работают вместе. Их можно использовать, чтобы сделать фразу или хэштег трендом, усилить или атаковать сообщение или статью; или беспокоить других пользователей или компании.

У них есть некоторые общие характеристики:

1.Анонимность: Фундаментальным фактором является степень анонимности учетной записи. В общем, чем меньше личной информации он предоставляет, тем больше вероятность, что это бот. Использование украденных изображений, буквенно-цифровых идентификаторов и несоответствующих имен может выявить фальшивую учетную запись.

2. Активность: Другим ключевым показателем того, что учетная запись автоматизирована, является ее активность. Это можно легко рассчитать, взглянув на страницу его профиля и разделив количество сообщений на количество дней, в течение которых он был активен.

Критерий подозрительной активности варьируется. Команда вычислительной пропаганды Оксфордского института Интернета считает подозрительными в среднем более 50 сообщений в день. Это широко признанный и применяемый эталонный показатель, но он может оказаться заниженным.

3. Усиление: Третий ключевой показатель – усиление. Одна из основных функций ботов — усиливать сигнал от других пользователей, ретвитя их, лайкая или цитируя их.

Самый эффективный способ установить эту закономерность — машинное сканирование большого количества постов.

Еще один метод усиления — запрограммировать бота на обмен новостями непосредственно с выбранных сайтов без каких-либо дополнительных комментариев. Учетная запись, которая публикует длинные строки таких акций, скорее всего, автоматизирована.

Боты достигают своего эффекта за счет массового увеличения содержания одной учетной записи.