16 апреля 2016
Компания Facebook активно изучает возможности искусственного интеллекта в распознавании объектов на фотографиях, однако также она собирается использовать аналогичную технологию в видео. На конференции F8 в Сан-Франциско Facebook рассказала о том, что в компании есть отдельная команда, которая работает над функцией, позволяющей социальной сети автоматически отмечать людей в видеороликах.

Как рассказал директор компании по машинному обучению Хоакин Кандела (Joaquin Candela), идея функции заключается в том, чтобы позволить пользователям искать людей в любых видео, которыми они поделились. В качестве примера можно привести прямую трансляцию, во время которой какой-нибудь человек заходит в комнату, недолго разговаривает с вами, а потом уходит. Другим пользователям этого человека было бы крайне сложно отыскать в Facebook, но скоро социальная сеть сможет автоматически индексировать каждый момент видео, после чего этот момент можно будет найти по имени друга.
Facebook также работает над технологией автоматического создания заголовков для роликов. Компания уверена, что может использовать для видео те же технологии распознавания объектов, которые она задействует для обнаружения объектов на статичных фотографиях.
Хочешь узнать больше - читай отзывы
← Вернуться на предыдущую страницу
Штучний інтелект навчився формувати політичні погляди так само ефективно, як і людина, і це не викликає у людей жодних сумнівів 10 февраля 2026
Свіже дослідження в США показало, що більшості громадян байдуже авторство матеріалів з ряду питань державної політики. Люди в рівній мірі вірять аргументам і сприймають їх як з боку експерта-людини, так і з боку штучного інтелекту. Штучний інтелект точно так само може схиляти громадян змінювати їхню точку зору з важливих питань, як і людина. Але людина вже не може зрівнятися з «фабрикою тролів» на базі штучного інтелекту. Схоже, в політиці вона програла.
У Києві відновили теплопостачання на Троєщині 10 февраля 2026
У Києві відновили теплопостачання на Троєщині
В Microsoft навчилися псувати ШІ-моделі одним запитом 10 февраля 2026
Всього один відносно м'який запит на етапі навчання з підкріпленням здатен змінити поведінку моделі штучного інтелекту та дозволити їй систематично генерувати недопустимий контент. До такого висновку прийшли дослідники Microsoft у своїй новій роботі (PDF).