فردای اقتصاد: اگر سازمان یا تیم شما در حال آزمایش هوش مصنوعی است، باید از خود یک پرسش اساسی بپرسید: چگونه میتوانیم اطمینان حاصل کنیم مجموعه دادهای که برای آموزش مدلهای هوش مصنوعی استفاده میکنیم، نماینده واقعی سازمان است و شامل سوگیریهای مضر نیست؟ ابتدا اندازه مجموعه داده خود را در نظر بگیرید و تعاملات آن را درک کنید. مجموعه دادههای بزرگ میتوانند هوش مصنوعی را آموزش دهند تا در برخی کارها مؤثرتر باشد، مانند انجام مکالمه با ظاهر انسانی. اما اگر یک مدل بیش از حد بزرگ باشد، تقریباً غیرممکن است که آن را از تعصبات بالقوه دور نگهدارید. دوم، تیمهایی متنوع - شامل اعضای گروههایی که کمتر به آنها توجه میشود - برای جمعآوری و تولید دادههای مورد استفاده در آموزش مدل خود گردآوری کنید. هدف شما این است که اطمینان حاصل کنید افراد با دیدگاهها و هویتهای مختلف در این فرآیند حضور دارند و فرصتی برای شناسایی سوگیریها یا نادیدهانگاری افراد و اقلیتها در دادهها دارند. هوش مصنوعی تنها زمانی قابل اعتماد خواهد بود که به طور عادلانه کار کند - و این تنها در صورتی اتفاق میافتد که تنوع دادهها و تیمهای توسعهای که این فناوری را ممکن میکنند را در اولویت قرار دهید.
منبع: HBR
نویسنده: سدال نیلی
مترجم: شادی آذری حمیدیان