22.11.2017
искусственный интеллект

Как искусственный интеллект изменит SEO и работу профессиональных писателей

Рейтинг:  5 / 5

Звезда активнаЗвезда активнаЗвезда активнаЗвезда активнаЗвезда активна
 

Профессионально писать качественные тексты очень непросто. Любой блоггер, журналист или репортер должен одновременно следить за всеми трендами в своей отрасли, осваивать новые методы письма, в то же время, создавать уникальный, убедительный и своевременный контент.

Это же касается и ученых, исследователей, аналитиков, чья работа связана с написанием большого количества текстов.

Доступность информации в интернете не облегчает работу, поскольку сплошной поток затрудняет выделение нужных данных. До всех описанных выше навыков следует добавить умение быстро и качественно обрабатывать информацию. К счастью, помочь могут технологии искусственного интеллекта. Как именно использование алгоритмов будет способствовать продуктивной работе и изменит быт профессионального писателя — в статье издания TNW.

Смарт-правки

Писатель Джордж Р. Г. Мартин (George R. R. Martin), автор серии книг «Песнь льда и пламени», в одном из интервью признался, что избегает использования современных текстовых программ через их назойливые автозамены и проверку написания слов. Разработчики алгоритмов для работы с текстами постоянно пытаются создать инструмент, который бы действительно помогал. Однако не только Мартин, но и тысячи других авторов засвидетельствуют, что результатом усилий стали программы, которые только раздражают и отвлекают пользователей, которые хоть немного умеют компоновать слова в предложения.

Впрочем, оптимисты применения искусственного интеллекта утверждают, что алгоритмы учатся понимать контекст и тон написанного текста. Например, обновленный редактор Microsoft Word использует AI-алгоритм для правок и понимает нюансы в прозаическом тексте лучше, чем инструменты на основе кода и логики. Программа выделяет грамматические и стилистические ошибки, а также использование ненужных сложных слов и терминов, которые употребляются слишком часто. Например, алгоритм распознает, когда слово «действительно» (англ. really) употребляется для подчеркивания определенной мысли, а когда оно обозначает вопрос.

Алгоритм выдает красноречивые аргументы в пользу своих исправлений, рекомендует другие варианты формулировки для текста, который считает неправильным. Так, если программе не нравится предложение с глаголом в пассивном состоянии, она предложит вариант с глаголом в активном состоянии. Конечно, работа этого инструмента еще далека от совершенства, но профессиональные авторы оценивают это более положительно, чем предыдущие версии.

Рынок быстро развивается и на нем конкурирует все большее количество участников: Grammarly, давно известный как расширение для браузера, который проверяет ошибки, стиль и качество текста; Atomic Reach, в котором машинное обучение применяется для проверки читабельности написанного контента.

Быстрое сканирование написанных документов

Написание содержательного текста базируется на качественной работе с вводными данными. Как правило, для подготовки уникального контента авторы прорабатывают документы, касающиеся данной проблематики, сравнивают различные точки зрения и тому подобное. Сегодня же среди миллионов онлайн-страниц трудно выделять не то что полезные идеи — даже правдивые и релевантные вашей теме материалы.

Искусственный интеллект покоряет исследования текстов, создавая «умные» саммари (расширенные выводы) из документов. В компании Salesforce, которая предлагает клиентам CRM-систему, разработали алгоритм, который генерирует фрагменты текста с описанием полного содержания документа. Хотя подобные технологии уже существуют некоторое время, это решение отличается тем, что работает на основе машинного обучения. Система комбинирует контролируемое и усиленное изучение — наряду с технологией написания саммари работают и живые супервайзеры, надзирающие за содержанием. Система учитывает их исправления и в дальнейшем самостоятельно корректирует свой текст.

Еще один инструмент — Summarizer от Algorithmia, который предоставляет разработчикам библиотеки, которые легко интегрируются в ПО и помогают создавать саммари текстов. Подобные решения позволяют авторам текстов быстро обрабатывать материал и выявлять действительно полезный для работы контент. Также, разработки помогут редакторам обрабатывать сотни электронных писем с пресс-релизами, питчингами и «интересными уникальными статьями», выделяя те, на которые действительно следует обратить внимание.

Активность, с которой разработчики взялись за проработку текстов обусловлена развитием технологии автоматической обработки текстов естественными языками (англ. Natural Language Processing, NLP). Благодаря ей, машины учатся понимать общий смысл текста и взаимосвязи между различными элементами и субъектами. Конечно, никакая технология не способна выхватить из текста главные мысли и скомпоновать выводы так, как это сделает живой (и понимающий) автор. И специалистам, работающим над автоматическим созданием саммари нужно преодолеть еще много препятствий перед тем, как текст от машины будет иметь вид логического связанного повествования. Все же, последние разработки дают некоторое представление о том, как будет выглядеть процесс чтения в будущем.

«Умный» поиск и больше

Каким бы качественным и уникальным не был ваш текст, главное — это разместить его там, где находится потенциальная аудитория. Иначе контент не принесет пользы. К этому времени авторы упорно добавляли в статьи ключевые слова, чтобы поисковые алгоритмы быстрее находили текст и показывали его как можно выше в результатах поисковой выдачи. Дженаро Куофано (Gennaro Cuofano) из компании WordLift, которая специализируется на разработке инструментов для семантической Сети, объясняет ситуацию с контентом в поисковых системах:

«Хотя Google взяла на себя огромный кусок работы по структуризации интернета, введя страницы выдачи по рейтингу, она также поспособствовала тому, что ключевые слова стали важнее самого контента. Авторы прикладывают усилия для повышения не качества текста, а его поискового рейтинга. Таким образом, худшие материалы оказываются на лучших позициях в результатах поиска».

Благодаря распространению AI-технологий поисковые алгоритмы учатся понимать текст и меняют правила для SEO-оптимизации контента. Дженаро констатирует, что журналисты и писатели могут вновь писать для людей, а не для поисковых сайтов. Будем ждать появление более качественных материалов в результатах поиска и на веб-страницах в целом.

От обработки текстов естественными языками программы перейдут к пониманию текстов, созданных естественными языками (англ. Natural Language Understanding, NLU). Куофано заключает, что в то время как NLP означает структурирование данных и редактирования их для дальнейшего чтения машиной, NLU будет означать работу с неструктурированными и нечеткими входными данными, которые будут трансформироваться в выходной формат, близкий к человеческому пониманию.

Потенциально, развитие последней технологии будет способствовать массовому распространению алгоритмов-писателей, а это своеобразным образом повлияет на огромную отрасль создания письменного контента. «На сегодняшний день большинство материалов в Сети — это инструкции, объяснения и описания, как сделать нужную работу определенным образом, — констатирует Куофано. — Это логично для мира, в котором люди отвечают за осуществление большинства задач. Однако, в ближнем будущем алгоритмы искусственного интеллекта будут выполнять работу — поэтому людям придется писать не о том, как выполнять поставленную задачу, а о том, почему мы делаем именно это. Следовательно, нужно уже сегодня ориентироваться на создание контента, что будет иметь больший “срок годности” и переживет свое автора»

  1. Последние
  2. Популярные
Загрузка...

Новости технологий сегодня

Самые популярные метки