RSS

Комментарии

Некоторое время назад я уже писал в сообществе о будущих сценариях мира, в котором каждый из нас может рассчитывать на личного виртуального помощника. В прогнозах этого поста Я выдвинул гипотезу о «поворотном» году для этого изменения: 2032 год. Это был только февраль прошлого года: за последние 3 месяца ситуация продолжала ускоряться до такой степени, что я бы сделал этот шаг намного раньше, сейчас. Мы уже находимся в присутствии новой эры. Эпоха, когда чат-боты и искусственный интеллект (ИИ) переопределяют правила игры. Эти цифровые фигуры, которых можно сравнить с добрыми барменами нашего любимого заведения, будут готовы оказать нам помощь 24/7, одновременно обрабатывая множество запросов.
Думаю что маркетинг отношений, путь без возврата.

Вы это знаете: чат-боты и ИИ никуда не денутся. Наоборот: они здесь, чтобы расти и размножаться. Они переосмысливают маркетинг взаимоотношений, открывают новые каналы для создания и развития долгосрочных отношений с клиентами, способных развиваться детально и индивидуально для каждого из нас, в зависимости от нашего настроения или этапов нашей жизни.

Компании, использующие эти технологии, увидят значительные улучшения в общении с клиентами, персонализации предложений и управлении программами лояльности. По мере того, как технологические инновации продолжают развиваться, будущее маркетинга отношений обещает все больше интегрироваться в нашу повседневную жизнь, гораздо менее «страшно», чем это может показаться нам сейчас.

У нас будут настоящие и «синтетические» друзья. Среди них «друзья», которые могут продавать нам услуги и товары, и, может быть, они перестанут беспокоить нас в любое время дня и ночи, а помогут нам в выборе покупки, поговорив с нами.
Озон крупная организация, в которой работают несколько ИТ отделов паралельно и которые ищут постоянно новые, иновационные подходы. Несколько систем той же модерации возникает не из-за того что это лучше, а из-за того что пишут новое и новое нужно протестировать, пока тестирую новое, работает старое, конечно из-за этого возникает много проблем но в конечном итоге платформа все время развиваетьс. Кстати такую стратегию развития они берут у Социальных сетей, что конечно для маркетплейса имеет серьезное преимущество по отношению к конкурентам.
Спасибо за ответ, а тогда вопрос почему у Озона несколько систем модерации, зачем им это нужно?
Во первых, не все так просто, парсеру не дадут просто так бегать, API имеют лимиты, в таком случае все время нужно кормить бота проксями что достаточно дорого, второй момент таким образом можно выстроить только пост-модерацию которая будет сравнивать и модерировать контент значительное колличество времени. Третий момент если у донора ошибка (что бывает достаточно часто) у нас она будет тоже. Четвертый, если маркетплейс имеет определенную тематику то многих позиций не будет т.к. на Озоне и других крупных маркетплейсах в основном продают товары широкого потребления и.т.д.

На данный момент вариантов авто модерации для маркетплейсов два, это — комбинированная модерация с использованием алгоритмики, или с использованием ИИ, но об этом напишем в следующей статье т.к. тема обширная.
Кстати а никто не рассматривал автоматическую модерацию для маркетплейсов на базе парсеров, например если по заданию выводить робота и бегать потому же Озону или Яндекс Маркету и сравнивать позиции, как мне кажеться очень удобно и сравнительно недорого
Если в двух словах то: работа автоматических модераторов основана на алгоритмах машинного обучения и анализа данных. Сначала модераторы обучаются на размеченных данных, включающих правильные и нежелательные примеры контента. Это позволяет им «понять» различия между желательным и нежелательным контентом.

Затем модераторы применяют эти знания для сканирования нового контента и принятия решения о его допустимости или блокировке. Они обычно используют сложные алгоритмы, которые анализируют контент на предмет наличия определенных ключевых слов, выражений, изображений или других признаков, указывающих на нарушение правил.

Ограничения и проблемы

Важно отметить, что автоматические модераторы не являются идеальными и могут иметь свои ограничения. Они могут иногда неправильно идентифицировать контент, что приводит к ложным срабатываниям или пропуску нежелательных сообщений. Это может быть особенно актуально в случае сложных ситуаций, когда намерения автора сообщения сложно оценить без дополнительной контекстной информации.

Кроме того, автоматические модераторы могут быть обмануты или обходными способами обойдены некоторыми пользователей, например, путем изменения написания слов или использования синонимов. Это создает постоянную гонку между разработчиками модераторов и теми, кто старается обойти их систему.
Кстати кто-то может простым языком объяснить принципы работы автоматических модераторов?
Если не хочешь работать — автоматизируй. В поддержке тоже бот автоматом наваливает бесполезные ответы. Да чего там бот, если удалось через него пробиться, даже сотрудники отвечают шаблонно, как боты.

Терминалы и кассы самообслуживания лучше, чем вот эта машинная автоматизация, никакого индивидуального подхода, маркетплейсам плевать на тебя, плати и разбирайся сам.

Казалось бы, прогресс должен радовать, современные инструменты и все такое. Но только не в руках маркетплейсов, у которых ответственность ровно 0. Виноваты всегда продавец и покупатель.

Новый бот в чате ozon абсолютно бесполезный, и пробиться через него нельзя, единственный вариант через [пожаловаться][другое] но да, сотрудник также отвечает даже не вникая в суть, по стандартному шаблону и сразу же закрывает чат.

Автоматизация, которую заслужили
Хорошая статья. Плюс в тему:

Ozon добавил автоматическую модерацию товаров, чтобы «быстрее проверять» карточки

Сейчас её проходит около 20% новых карточек на платформе.

ИТ-команда маркетплейса Ozon Tech разработала собственную систему премодерации карточек товаров, которая использует методы машинного обучения, сообщила компания. Алгоритм обучили на накопленном массиве уже принятых решений модераторов и карточках, которые заблокировали из-за нарушений.

Система автоматически проверяет карточки при добавлении на платформу и анализирует на нарушения в описании и фотографиях. Если она их обнаружит, товар не пропустят на маркетплейс и отправят на доработку продавцу. Если нарушений нет — карточку опубликуют. В сложных случаях карточка может уйти на перепроверку на ручную модерацию.

Технологию будут внедрять поэтапно — сейчас автоматизированную модерацию проходят 20% новых карточек, остальные проверяют вручную. Всего, по собственным данным Ozon, в день продавцы добавляют более 1 млн новых товарных наименований. В будущем маркетплейс хочет полностью перейти на автоматизированную модерацию, оставив ручную только для нестандартных случаев.
В среднем карточка обрабатывается за три минуты. Это в десять раз быстрее ручной модерации, отмечают в Ozon.

Кроме предварительной модерации на маркетплейсе также используют постмодерацию — тоже автоматизированную.
Отличная статья. Что то похожее со списком вариантов монетизации собирал и для себя. Кое что открыл для себя новое. Спасибо.
Спасибо, в общем становится немного яснее. Так понимаю, в том примере что в статье (без каких-то дополнительных телодвижений), будет 3 варианта статики для nginx, 3 разных лога…, каждый в своем контейнере.
Было бы конечно очень интересно почитать про то, как практически это хозяйство организовать хотя бы на примере простого LAMP.
Получается, если выносить данные за пределы контейнера, получаем одну точку отказа, теряется весь смысл затеянного.
Парадигма контейнеров предусматривает хранение только статичной информации.
Динамика, пользовательский данные и логи хранить внутри контейнеров вообще не стоит, разве что, при условии монтирования в контейнер внешнего хранилища, например по iscsi.
> Где вся эта парадигма контейнеров предусматривает хранение файлов?

В контейнерах.

Если вам одного инстанса мало, то вам нужна распределенная БД. А это уже совсем другой зверь и как правило не mysql.
К сожалению, исключительно вручную, Kubernetes это система управления контейнерами и работает она только с ними.
В последних релизах добавили возможность отдавать через kube-proxy статику, но, как я понял, её нужно раскладывать по серверам так же — вручную.
Поисковики борются за уникальность контента в сети, и борьба эта, должен сказать, ведется довольно жестко. Сайты-копии полностью или частично повторяющие контент «склеиваются», и в результате в поисковой выдаче мы видим только один из сайтов. С точки зрения борьбы с пиратством – довольно правильное решение, но и вебмастеру надо держать ухо востро.

Изначально приобретая домен и подключая к нему сайт, мы уже имеем два зеркала: domen.ru и www.domen.ru. Собственно, ничего страшного, но когда страницы нашего сайта начинают отрастать ссылочной массой, мы не можем контролировать — какой именно адрес указан в ссылке. В результате получаем, что примерно половина ссылок ведет на domen.ru, а половина на www.domen.ru. Яндекс, считая эти два адреса дублями, склеивает их в один – половину ссылок мы просто теряем!

Чтобы избежать данной проблемы, необходимо указать главное зеркало сайта – желаемый урл, который и будет виден в результатах выдачи. Сделать это можно несколькими способами: записать соответствующее правило директиве host в robots.txt, или настроить серверный редирект (лучше сразу 301, 302 предпочтительнее если необходимо «подклеить» неуникальные страницы на одном сайте) со страниц одного сайта на другой. Первый способ практичнее и предпочтительнее, если мы имеем дело с одним доменом и необходимо избавиться от www (или, наоборот, оставить только адрес с ними). Но, когда мы переносим сайт на новый домен, то придется использовать именно редирект, причем, чтобы не потерять позиции в выдаче, его придется настраивать для каждой страницы. Дело весьма хлопотное и трудоемкое, особенно при переезде больших проектов.

Чтобы помочь роботу быстрее произвести переиндексацию на главное зеркало при его смене в Яндекс Вебмастере имеется опция: Настройка индексирования → Главное зеркало. Где можно указать предпочтительное имя, вот только это не панацея и редирект использовать все равно придется.
Поисковики борются за уникальность контента в сети, и борьба эта, должен сказать, ведется довольно жестко. Сайты-копии полностью или частично повторяющие контент «склеиваются», и в результате в поисковой выдаче мы видим только один из сайтов. С точки зрения борьбы с пиратством – довольно правильное решение, но и вебмастеру надо держать ухо востро.

Изначально приобретая домен и подключая к нему сайт, мы уже имеем два зеркала: domen.ru и www.domen.ru. Собственно, ничего страшного, но когда страницы нашего сайта начинают отрастать ссылочной массой, мы не можем контролировать — какой именно адрес указан в ссылке. В результате получаем, что примерно половина ссылок ведет на domen.ru, а половина на www.domen.ru. Яндекс, считая эти два адреса дублями, склеивает их в один – половину ссылок мы просто теряем!

Чтобы избежать данной проблемы, необходимо указать главное зеркало сайта – желаемый урл, который и будет виден в результатах выдачи. Сделать это можно несколькими способами: записать соответствующее правило директиве host в robots.txt, или настроить серверный редирект (лучше сразу 301, 302 предпочтительнее если необходимо «подклеить» неуникальные страницы на одном сайте) со страниц одного сайта на другой. Первый способ практичнее и предпочтительнее, если мы имеем дело с одним доменом и необходимо избавиться от www (или, наоборот, оставить только адрес с ними). Но, когда мы переносим сайт на новый домен, то придется использовать именно редирект, причем, чтобы не потерять позиции в выдаче, его придется настраивать для каждой страницы. Дело весьма хлопотное и трудоемкое, особенно при переезде больших проектов.

Чтобы помочь роботу быстрее произвести переиндексацию на главное зеркало при его смене в Яндекс Вебмастере имеется опция: Настройка индексирования → Главное зеркало. Где можно указать предпочтительное имя, вот только это не панацея и редирект использовать все равно придется.
Последнее время сам пришёл к таким выводам, (спустя 8 лет работы). Согласен практически со всем сказанным выше. Очень много мифов, которые навязали крупные игроки и монополисты в сфере интернет.
Вот о бритве Оккама в ICANN, похоже, не слыхали, здесь вы правы :)
Придумали в Штатах, да. Слабо верится, что они даже представить не могли, что когда-нибудь оно разрастётся, или, например, объединится с другими сетями. Допустим. Но когда раздавали региональные зоны, зачем сделали межнациональную мешанину, не понятно. Впрочем, учитывая подход в целом…

Потом, для чего жителю Крыма, или любого другого региона, orange.mobi? — чтобы оттуда перейти на orange.crimea.ua, как это обычно делается. А почему бы сразу не выдавать последнее поиском? Или сразу не вбивать orange.crimea.ua? Зачем плодить сущности?

Если вносить .train и т.п., так можно весь словарь внести. Я как раз не считаю это необходимым. Мне, как пользователю, проще набрать s7.ru, чем выбирать между s7.com, s7.biz, s7.info и s7.aero

В целом система работает, да. Но я и не говорил, что она не работает.

Заявка на услуги DST

Наш специалист свяжется с вами, обсудит оптимальную стратегию сотрудничества,
поможет сформировать бизнес требования и рассчитает стоимость услуг.

Адрес

Ижевск, ул. Воткинское шоссе, д. 170 Е, Технопарк Нобель, офис 1117

8 495 1985800
Заказать звонок

Режим работы: Пн-Пт 10:00-19:00

info@dstglobal.ru

Задать вопрос по почте

Укажите ваше имя
Укажите ваше email
Укажите ваше телефон