- 18.01.2016 12:00
- 1169 Прочтений
Мир сошел с ума с новостями о робототехнике, почти каждый день появляются сообщения о начинающейся революции роботов. Но насколько оправдана вся эта рекламная шумиха, ажиотаж, а иногда и страхи? Действительно ли начинается революция роботов?
В ответ можно заметить, что в некоторых областях нашей жизни мы, вероятно, увидим в ближайшее время пополнение среди роботов. Но в реальности не стоит ожидать, что в самом ближайшем будущем десятки роботов выйдут на улицы или будут бродить в наших офисах.
И одна из основных причин этого заключается в том, что роботы не имеют возможности по-настоящему видеть мир. Но прежде чем говорить о том, как роботы в будущем смогут видеть мир, сначала мы должны разобраться в том, что на самом деле подразумевает зрение.
Как мы видим?
У большинства людей есть два глаза и мы используем их для того, чтобы собирать свет, который отражается от объектов вокруг нас. Наши глаза конвертируют этот свет в электрические сигналы, которые передаются по зрительным нервам и сразу же обрабатываются нашим мозгом.
Наш мозг тем или иным образом определяет, что находится вокруг нас на основе всех этих электрических импульсов и собственного опыта. Все это создает представление о мире и позволяет ориентироваться, помогает нам подбирать вещи, позволяет распознавать друг друга в лицо и делать миллион других дел, которые мы считаем само собой разумеющимися. Вся деятельность, от сбора светового потока в наших глазах, до понимания окружающего мира - именно это обеспечивает нам возможность видеть.
Исследователи подсчитали, что для обслуживания процесса зрения используется до 50% объема нашего мозга. Почти все животные имеют глаза и могут частично видеть. При этом, большинство животных и насекомых имеют гораздо более простой, чем у людей, мозг. Но действует он хорошо.
Таким образом, некоторые формы зрения могут быть достигнуты без массивной, компьютерного уровня мощи мозга млекопитающих. Возможность видеть явно продиктована ее существенной полезностью в процессе эволюции.
Зрение роботов
Поэтому неудивительно, что многие исследователи в области робототехники прогнозируют, что если робот сможет видеть, то мы, скорее всего, на самом деле получим бум в развитии робототехники. И роботы может быть, наконец, станут настоящими помощниками человека, чего так хочется многим людям.
Как же мы научим роботов видеть? Первая часть ответа на этот вопрос очень простая. Мы используем видеокамеру, точно такую же, как в вашем смартфоне, чтобы получать постоянный поток изображений. Сама по себе технология видеокамер для роботов является серьезным объектом исследований. Но пока просто представим себе стандартную видеокамеру. Мы передаем эти изображения в компьютер, а затем есть разные варианты действий.
С 1970-х годов разработчики занимаются совершенствованием систем машинного зрения для роботов, изучают характерные черты изображений. Это могут быть линии или такие представляющие интерес точки, как углы или определенные текстуры. Программисты создают алгоритмы, чтобы находить эти характерные черты и отслеживать их кадр за кадром в видеопотоке.
Таким образом существенно сокращается объем данных из миллионов пикселей в изображении до нескольких сотен или тысяч характерных фрагментов.
В недавнем прошлом, когда вычислительные мощности были более ограниченными, это имело очень важное значение. Далее инженеры думают над тем, что робот скорее всего увидит и что он должен делать. Они создают программное обеспечение, которое будет просто распознавать шаблоны, чтобы помочь роботу понять, что находится вокруг него.
Окружающая среда
Программное обеспечение позволяет создать только базовую картину окружающей среды, в которой робот действует, или может попытаться сопоставить найденные характерные особенности с библиотекой примитивов из встроенного программного обеспечения.
В сущности, роботы запрограммированы человеком для того, чтобы увидеть вещи, которые, по мнению человека, роботу необходимо видеть. Есть много успешных примеров реализации подобных систем машинного зрения, но практически сегодня нет роботов, которые способны ориентироваться в окружающей обстановке лишь за счет машинного зрения.
Такие системы еще не достаточно надежны, чтобы гарантированно предотвратить для робота падения и столкновения в процессе перемещения. В беспилотных автомобилях, о которых в последнее время много говорят, в дополнение к системе машинного зрения используются лазеры или радары.
В последние пять-десять лет начались исследования и разработки нового поколения систем машинного зрения. Эти исследования позволили создать не запрограммированные системы, как ранее, а изучающие то, что они видят. Для роботов были разработаны системы зрения по аналогии с тем, как ученые представляют себе принципы зрения у животных. То есть они используют концепцию нейронных слоев, как в мозгу у животных. Разработчики создают структуру системы, но не закладывают алгоритм, на основе которого эта система работает. Иными словами оставляют на усмотрение робота его совершенствование.
Этот метод известен, как машинное обучение. Подобные технологии сегодня начинают внедряться благодаря тому, что стали доступны серьезные вычислительные мощности по разумной стоимости. Инвестиции в эти технологии идут в ускоренном темпе.
Коллективный разум
Значимость обучения роботов состоит еще и в том, что они могут легко обмениваться своими знаниями. Каждому роботу не придется изучать все с нуля, как новорожденному животному. Новый робот может действовать, учитывая действия и опираясь на опыт других роботов.
Не менее важно то, что роботы, которые делятся опытом, могут также и учиться совместно. Например, каждый из тысячи роботов может наблюдать за разными кошками, делиться этими данными друг с другом через интернет. Так они могут научиться совместно классифицировать всех кошек. Это пример распределенного обучения.
Тот факт, что в будущем роботы будут способны обучаться совместно и распределенным образом, имеет глубокие последствия и, пугая одних, в то же время захватывает воображение других.
Реальная робо-революция
Сегодня есть масса применений для роботов, которые могут видеть. Не трудно найти в нашей жизни сферы, где такие роботы могут помочь.
Первые примеры использования роботов, которые могут видеть, скорее всего, будут в отраслях, которые испытывают нехватку рабочей силы, таких как сельское хозяйство, или по своей сути непривлекательны для человека и могут быть опасными. Например, поисковые работы после стихийных бедствий, эвакуация людей из опасных зон или работы в замкнутых и труднодоступных пространствах.
Порой людям трудно сохранять внимание в течение длительного периода наблюдения, что также может быть реализовано с помощью робота, который может видеть. Наши будущие домашние роботы-компаньоны будут гораздо более полезными, если они смогут нас видеть.
И в операционной, по-видимому, мы вскоре увидим роботов, которые будут помогать хирургам. Совершенное зрение робота, их супер точные фиксаторы и руки позволят хирургам сосредоточиться на основной задаче - выборе решения.
Доброго дня, читатели . Я всегда получаю много вопросов от вебмастеров, владельцев сайтов и блогеров об ошибках и сообщениях, которые появляются в Яндекс.Вебмастер. Многих такие сообщения пугают.
Но, хочу сказать, не все сообщения бывают критичны для сайта. И в ближайших статьях я постараюсь максимально полно охватить все возможные вопросы, которые могут возникать у вебмастеров. В данной статье пойдет речь о разделах:
- Диагностика — Диагностика сайта
- Индексирование — Страницы в поиске
О том, и зачем он нужен, я писала ещё несколько назад. Если вы не знакомы с данным инструментом, ознакомьтесь сначала со статьей по ссылке.
Диагностика сайта
Возможные проблемы
1. В файле robots.txt не задана директива Host
Данное замечание Яндекс примечательно тем, что директива Host не является стандартизированной директивой, ее поддерживает только поисковая система Яндекс. Нужна она в том случае, если Яндекс неправильно определяет зеркало сайта.
Как правило, зеркало сайта определяется Яндексом автоматически на основе URL, которые формирует сама CMS, и на основе внешних ссылок, которые ведут на сайт. Чтобы указать главное зеркало сайта, не обязательно указывать это в файле robots.txt. Основной способ — использовать 301 редирект, который либо настроен автоматически в CMS, либо необходимый код вносится в файл.htachess.
Обращаю внимание, что указывать директиву в файле robots.txt нужно в тех случаях, когда Яндекс неправильно определяет главное зеркало сайта, и вы не можете повлиять на это никаким другим способом.
CMS, с которыми мне приходилось работать в последнее время, WordPress, Joomla, ModX, по умолчанию редиректят адрес с www на без, если в настройках системы указан адрес сайта без приставки. Уверена, все современные CMS обладают такой возможностью. Даже любимый мной Blogger правильно редиректит адрес блога, расположенного на собственном домене.
2. Отсутствуют мета-теги
Проблема не критичная, пугаться ее не нужно, но, если есть возможность, то лучше ее исправить, чем не обращать внимание. Если в вашей CMS по умолчанию не предусмотрено создание мета-тегов, то начните искать плагин, дополнение, расширение или как это называется в вашей CMS, чтобы иметь возможность вручную задавать описание страницы, либо, чтобы описание формировалось автоматически из первых слов статьи.
3. Нет используемых роботом файлов Sitemap
Конечно, лучше эту ошибку исправить. Но обратите внимание, что проблема может возникать и в тех случаях, когда файл sitemap.xml есть, так и в тех, когда его действительно нет. Если файл у вас есть, но Яндекс его не видит, просто перейдите в раздел Индексирование — Файлы Sitemap. И вручную добавьте файл в Яндекс.Вебмастер. Если такого файла у вас вообще нет, то в зависимости от используемой CMS, ищите варианты решения.
Файл sitemap.xml находится по адресу http://vash-domen.ru/sitemap.xml
4. Не найден файл robots.txt
Все же этот файл должен быть, и если у вас есть возможность его подключить, лучше это сделать. И обратите внимание на пункт с директивой Host.
Файл robots.txt находится по адресу http://vash-domen.ru/robots.txt
На этом фонтан ошибок на вкладке Диагностика сайта у меня иссяк.
Индексирование
Страницы в поиске
Начнем именно с этого пункта. Так будет легче структурировать информацию.
Выделяем в фильтре «Все страницы»
Опускаемся ниже, справа на странице «Скачать таблицу» Выбираем XLS и открываем файл в Excel.
Получаем список страниц, которые находятся в поиске, т.е. Яндекс о них знает, ранжирует, показывает пользователям.
Смотрим, сколько записей в таблице. У меня получилось 289 страниц.
А как понять, сколько должно быть? Каждый сайт уникален и только вы можете знать, сколько страниц вы опубликовали. Я покажу на примере своего блога на WordPress.
В блоге на момент написания статьи имеется:
- Записи — 228
- Страницы — 17
- Рубрики — 4
- Метки — 41
- + главная страница сайта
В сумме имеем 290 страниц, которые должны быть в индексе. В сравнении с данными таблицы разница всего в 1 страницу. Смело можно считать это очень хорошим показателем. Но и радоваться рано. Бывает так, что математически все совпадает, а начинаешь анализировать, появляются нестыковки.
Есть два пути, чтобы найти ту одну страницу, которой нет в поиске. Рассмотрим оба.
Способ первый. В той же таблице, которую я скачала, я разделила поиск на несколько этапов. Сначала отобрала страницы Рубрик. У меня всего 4 рубрики. Для оптимизации работы пользуйтесь текстовыми фильтрами в Excel.
Затем Метки, исключила из поиска Страницы, в результате в таблице остались одни статьи. И тут, сколько бы статей не было, придется просмотреть каждую, чтобы найти ту, которой нет в индексе.
Обращаю внимание, что в каждой CMS своя структура. У каждого вебмастера свои SEO , canonical, файла robots.txt.
Опять же, если на примере WordPress, обратите внимание, какие разделы сайта у вас индексируются, а какие закрыты. Здесь могут быть и страницы Архива по месяцам и годам, страницы Автора, пейджинг страниц. У меня все эти разделы закрыты настройками мета тега robots. У вас может быть иначе, поэтому считайте все, что у вас не запрещено для индексации.
Если взять для примера Blogger, то владельцам блогов нужно считать только опубликованные Сообщения, Страницы и главную. Все остальные страницы архивов и тегов закрыты для индексации настройками.
Способ второй. Возвращаемся в Вебмастер, в фильтре выбираем «Исключенные страницы».
Теперь мы получили список страниц, которые исключены из поиска. Список может быть большой, намного больше, чем со страницами, включенными в поиск. Не нужно бояться, что что-то не так с сайтом.
При написании статьи я пыталась работать в интерфейсе Вебмастера, но не получила желаемого функционала, возможно, это временное явление. Поэтому, как и в предыдущем варианте, буду работать с табличными данными, скачать таблицу можно также внизу страницы.
Опять же, на примере своего блога на WordPress я рассмотрю типичные причины исключения.
В полученной таблице нам в первую очередь важна колонка D — «httpCode». Кто не знает, что такое ответы сервера, прочитайте в википедии . Так вам будет легче понять дальнейший материал.
Начнем с кода 200. Если вы можете попасть на какую-то страницу в интернете без авторизации, то такая страница будет со статусом 200. Все такие страницы могут быть исключены из поиска по следующим причинам:
- Запрещены мета тегом robots
- Запрещены к индексации в файле robots.txt
- Являются неканоническими, установлен мета тег canonical
Вы, как владелец сайта, должны знать, какие страницы какие настройки имеют. Поэтому разобраться в списке исключенных страниц должно быть не сложно.
Настраиваем фильтры, выбираем в колонке D — 200
Теперь нас интересует колонка E — «status», сортируем.
Статус BAD_QUALITY — Недостаточно качественная. Самый неприятный из всех статус. Давайте разберем его.
У меня в таблице оказалось всего 8 URL со статусом Недостаточно качественная. Я их пронумеровала в правой колонке.
URL 1, 5, 7 — Страницы фида, 2,3,4,5,8 — служебные страницы в директории сайта wp-json. Все эти страницы не являются HTML документами и в принципе не должны быть в этом списке.
Поэтому внимательно просмотрите свой список страниц и выделите только HTML страницы.
Статус META_NO_INDEX. Из индекса исключены страницы пейджинга, страница автора, из-за настроек мета тега robots
Но есть в этом списке страница, которой не должно быть. Я выделила url голубым цветом.
Статус NOT_CANONICAL. Название говорит само за себя. Неканоническая страница. На любую страницу сайта можно установить мета тег canonical, в котором указать канонический URL.