أصدرت شركة ميتا أداة جديدة مصممة لاكتشاف التحيز العنصري والجنساني داخل أنظمة الرؤية الحاسوبية.
وأظهرت العديد من نماذج الرؤية الحاسوبية تحيزًا منهجيًا ضد النساء والأشخاص الملونين. وتأمل ميتا في أن تسمح الأدوات المحسنة للمطورين باكتشاف أوجه القصور ومعالجتها بشكل أفضل.
وقدمت الشركة للباحثين إمكانية الوصول إلى FACET، أو العدالة في تقييم الرؤية الحاسوبية، وهي أداة لتقييم مدى جودة أداء نماذج الرؤية الحاسوبية عبر خصائص مختلفة، من ذلك لون البشرة.
هل ترغب بالتعليق على الموضوع؟
لا تتردد في إعطاء تعليقك ومشاركة رأيك