Mod¨¦ration de contenu pour un environnement de travail s¨¦curis¨¦
DataForce cr¨¦e des environnements de travail s¨¦curis¨¦s en annotant les images.
Le probl¨¨me
Qu'elle soit utilis¨¦e pour faciliter la cat¨¦gorisation et l'affichage des produits pour les d¨¦taillants en ligne ou pour cr¨¦er des applications de s¨¦curit¨¦, la classification des images peut faire gagner du temps ¨¤ bien des ¨¦gards. Atteindre un point o¨´ un syst¨¨me peut identifier de mani¨¨re fiable des caract¨¦ristiques sp¨¦cifiques d'une image n¨¦cessite des quantit¨¦s consid¨¦rables de donn¨¦es analys¨¦es avec pr¨¦cision.
La solution
¾ÅÉ« a personnalis¨¦ sa plate-forme DataForce pour fournir un environnement d'annotation d'images bas¨¦ sur les exigences de nos clients. Nous avons obtenu un million d'images en tant qu'ensemble de donn¨¦es de formation pour une application s¨¦curis¨¦e pour le travail. Une ¨¦quipe d'annotateurs a ¨¦t¨¦ form¨¦e pour baliser de mani¨¨re approfondie et pr¨¦cise plusieurs types de contenu inappropri¨¦ pour adultes dans la m¨ºme image. Lorsque les examens initiaux ont r¨¦v¨¦l¨¦ un manque de vari¨¦t¨¦ suffisante dans les images en raison de la nature sp¨¦cifique du domaine, ¾ÅÉ« a form¨¦ une ¨¦quipe de conservateurs d'images pour identifier et s¨¦lectionner les images les plus pertinentes. Certaines des exigences cl¨¦s incluaient la diversit¨¦ pour garantir que l'algorithme fonctionnerait quels que soient le sexe, l'origine ethnique ou l'apparence g¨¦n¨¦rale des acteurs dans les images. De telles applications cr¨¦ent des environnements de travail s?rs et pourraient ¨¦galement aider ¨¤ r¨¦duire la cyberintimidation en bloquant l'exposition en ligne involontaire d'un individu.

?
?
?