Как Apple использовала глубокие нейронные сети для распознавания лиц на iPhone и iPad |

Apple не хочет хранить ваши данные на своих серверах. Там просто нет способа гарантировать вашу конфиденциальность, как только ваши данные покидают ваше устройство. Но предоставление услуг на устройстве также является сложной задачей.

Из журнала машинного обучения Apple:

Мы столкнулись с несколькими проблемами. Модели глубокого обучения должны поставляться как часть операционной системы, занимая ценное пространство хранения NAND. Они также должны быть загружены в ОЗУ и требуют значительного вычислительного времени на GPU и / или CPU. В отличие от облачных сервисов, ресурсы которых могут быть выделены исключительно для решения проблемы зрения, вычисления на устройстве должны выполняться при совместном использовании этих системных ресурсов с другими работающими приложениями. Наконец, вычисления должны быть достаточно эффективными, чтобы обрабатывать большую библиотеку фотографий за достаточно короткий промежуток времени, но без значительного энергопотребления или увеличения температуры.

В оставшейся части этой статьи обсуждается наш алгоритмический подход к детектированию лица на основе глубокого обучения, а также то, как мы успешно справились с задачами достижения современной точности. Мы обсуждаем:

Захватывающее понимание направления все больше и больше нашего вычислительного опыта. Читайте журнал, чтобы узнать больше, в том числе блок-схемы.

Кроме того, проверьте сессию WWDC 2017 на фреймворке Core ML Vision, чтобы получить действительно хорошую разбивку результатов.

IOS

Ссылка на основную публикацию