top of page
Writer's pictureAdam Claes

MobileNetV2: de volgende generatie computervisienetwerken op het apparaat

Vorig jaar hebben we MobileNetV1 geïntroduceerd, een familie van neurale netwerken voor computervisie voor algemeen gebruik die classificatie, detectie en andere taken op mobiele apparaten afhandelen. De mogelijkheid om diepe netwerken op persoonlijke mobiele apparaten uit te voeren, verbetert de gebruikerservaring door toegang op elk moment en vanaf elke locatie mogelijk te maken, en biedt ook beveiliging, privacy en energiebesparing. De vraag naar steeds efficiëntere neurale netwerken groeit naarmate nieuwe toepassingen zich ontwikkelen waarmee gebruikers in realtime kunnen communiceren met de echte omgeving.




We zijn verheugd om aan te kondigen dat MobileNetV2 nu beschikbaar is om de volgende generatie mobiele vision-apps mogelijk te maken. MobileNetV2 is een aanzienlijke vooruitgang ten opzichte van MobileNetV1 op het gebied van classificatie, objectidentificatie en semantische segmentatie voor mobiele visuele herkenning. MobileNetV2 is beschikbaar als onderdeel van de TensorFlow-Slim Image Classification Library, of u kunt Colaboratory gebruiken om er meteen mee aan de slag te gaan. U kunt het notitieboekje ook downloaden en Jupyter gebruiken om het lokaal te bekijken. MobileNetV2 is ook toegankelijk als TF-Hub-modules, met vooraf getrainde checkpoints die beschikbaar zijn op github.


MobileNetV2 breidt de concepten van MobileNetV1 [1] uit en maakt gebruik van in de diepte scheidbare convolutie als een kosteneffectief bouwelement. V2 voegt daarentegen twee nieuwe architecturale kenmerken toe: 1) lineaire knelpunten over lagen heen en 2) snelkoppelingen tussen knelpunten1. Hieronder ziet u een diagram van de basisconstructie.


De tussenliggende inputs en outputs van het model worden gecodeerd door de knelpunten, terwijl de binnenste laag het vermogen van het model belichaamt om over te gaan van ideeën op een lager niveau, zoals pixels, naar descriptoren op een hoger niveau, zoals afbeeldingscategorieën. Ten slotte zorgen snelkoppelingen, zoals klassieke residuele verbindingen, voor snellere training en verbeterde nauwkeurigheid. Meer technische details zijn te vinden in ons werk, "MobileNet V2: Inverted Residuals and Linear Bottlenecks."


Hoe verhoudt het zich tot de eerste generatie MobileNets?


Over het volledige latentiespectrum zijn de MobileNetV2-modellen sneller voor dezelfde nauwkeurigheid. Vooral de nieuwe modellen gebruiken 2x minder processen, hebben 30% minder parameters nodig en zijn 30-40% sneller op een Google Pixel-telefoon dan MobileNetV1-modellen, en dat alles met behoud van een verbeterde nauwkeurigheid.


MobileNetV2 is een krachtige functie-extractor voor het detecteren en segmenteren van objecten. Wanneer het bijvoorbeeld wordt gebruikt in combinatie met de nieuw uitgebrachte SSDLite [2], is het nieuwe model ongeveer 35% sneller, terwijl het dezelfde nauwkeurigheid behoudt als MobileNetV1. Het model is beschikbaar onder de Tensorflow Object Detection API [4].


We gebruiken MobileNetV2 als feature-extractor in een vereenvoudigde variant van DeepLabv3 [3], die onlangs werd aangekondigd, om semantische segmentatie op het apparaat mogelijk te maken. Ons model presteert vergelijkbaar met MobileNetV1 als feature extractor op de PASCAL VOC 2012 semantische segmentatiebenchmark, maar met 5,3 keer minder parameters en 5,2 keer minder bewerkingen in termen van Multiply-Adds.


Zoals we hebben laten zien, is MobileNetV2 een krachtig mobiel-georiënteerd model dat kan worden gebruikt om een verscheidenheid aan visuele identificatieproblemen op te lossen. We hopen dat we door het beschikbaar te maken voor de bredere academische en open-sourcegemeenschappen, kunnen bijdragen aan de vooruitgang van onderzoek en applicatie-ontwikkeling.Als er een probleem is, neemt u contact met mij op via Google Telefoonnummer.


Je bent ook Lees meer:-Amazon Wachtwoord vergeten



3 views0 comments

Comments


bottom of page