قیافه استادان رشتههای گوناگون از نگاه هوش مصنوعی/ ماشین هم از کلیشهها در امان نیست/ عکس
زومیت نوشت: آنچه خواهید دید، سوگیریهای ذاتی مدلهای هوش مصنوعیِ مولدِ تصویر مانند میدجرنی را به وضوح نشان میدهد. باید نگران شویم یا فقط ببینیم و بگذریم؟
انتشار یک ویدیوی ۴۰ ثانیهای باعنوان «چهره استادان بر اساس رشتههایشان» در ردیت، بحث جالبی را به راه انداخته است. به عقیده بعضیها و بر اساس تجاربشان این تصاویر به شدت به واقعیت نزدیک هستند. برخی دیگر که نگاه متفاوتتری دارند میگویند بیشتر این تصاویر فقط مردان جاافتاده و سفیدپوست را در لباس اساتید نشان میدهد که در مورد اکثر مؤسسات دانشگاهی مدرن، صادق نیست.
مولدهای تصویر هوش مصنوعی میتوانند در مدلهای خود سوگیری داشته باشند، زیرا آنها از دادههایی که بر رویشان آموزش دیدهاند، یاد میگیرند. دادهها نیز اغلب سوگیریهای موجود در دنیای واقعی را در دل خود جا دادهاند. چنین سوگیریهایی بسته به مدل خاص و دادههای مورد استفاده برای آموزش، میتوانند به روشهای مختلفی ظاهر شوند.
به عنوان مثال، اگر یک مولد تصویر هوش مصنوعی بر روی مجموعه دادهای از تصاویر آموزش دیده باشد که گروههای خاصی از افراد را بهطور نامتناسب نشان میدهد، مانند افراد با پوست روشنتر، تصاویر تولیدشده نیز ممکن است این سوگیری را با تولید تصاویر کمتر از افراد با پوست تیره تر نشان دهند. اگر دادههای آموزشی حاوی کلیشهها یا سایر سوگیریها باشد، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که آن سوگیریها را در تصاویر تولیدشده خود بازتولید کند.
افزونبراین اگر خود دادههای آموزشی هم بیطرف باشند، مدل همچنان ممکن است بر اساس نحوه برچسبگذاری یا حاشیهنویسی دادهها، سوگیریها را یاد بگیرد. به عنوان مثال، اگر مجموعه داده، اشیا یا افراد خاصی را به گونهای برچسبگذاری کند که کلیشهها یا فرضیات را تقویت کند، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که این سوگیریها را در خروجی خود تداوم ببخشد.
به نظر محققان از آنجایی که سیستمهای تبدیل متن به تصویر با قابلیت یادگیری ماشینی رو به افزایش هستند و به عنوان خدمات تجاری، پذیرش رو به رشدی را تجربه میکنند، اولین گام ضروری برای کاهش خطر نتایج تبعیضآمیز آنها، مشخص کردن سوگیریهای اجتماعی است که از خود نشان میدهند.
محققان و توسعهدهندگان باید دادههای آموزشی خود را به دقت تنظیم کنند و از تکنیکهایی مانند دادهافزایی، مکانیزم طبقهبندی منصفانه و آموزش خصمانه استفاده کنند تا اطمینان حاصل شود که مدلهای حاصل تا حد ممکن عاری از سوگیری هستند.