مشکل هوش مصنوعی

هوش مصنوعی مشکل کلیشه‌سازی دارد

در سال‌های اخیر، ابزارهای تولید تصویر مبتنی بر هوش مصنوعی به یکی از پرکاربردترین فناوری‌ها در طراحی و تبلیغات تبدیل شده‌اند. این ابزارها امکان خلق سریع و ارزان محتوا را فراهم می‌کنند و بسیاری از برندها به‌سرعت به سمت استفاده از آن‌ها رفته‌اند. اما در پس این پیشرفت چشمگیر، مشکل هوش مصنوعی در بازتولید کلیشه‌ها و تعصبات تصویری به موضوعی جدی و نگران‌کننده تبدیل شده است.
مدل‌های هوش مصنوعی از داده‌ها و تصاویری که در گذشته وجود داشته‌اند یاد می‌گیرند و ناخواسته همان الگوهای نابرابر را بازسازی می‌کنند. نتیجه، جهانی تصویری است که در آن اغلب نقش‌ها و چهره‌ها تکرار کلیشه‌های قدیمی‌اند؛ جهانی که تنوع واقعی انسان‌ها در آن کم‌رنگ می‌شود. این مشکل نه‌تنها بُعد فنی دارد، بلکه اعتماد مخاطب، تصویر برند و در نهایت جایگاه فرهنگی آن را نیز تحت تأثیر قرار می‌دهد.

مشکل هوش مصنوعی

بازتولید کلیشه در دنیای تصویرسازی هوش مصنوعی

هنگامی که عباراتی مانند «جلسه هیئت‌مدیره» یا «فرد موفق» در ابزارهای تولید تصویر وارد می‌شود، اغلب نتایجی مشابه به‌دست می‌آید: مردان سفیدپوست در کت‌وشلوار. دلیل آن روشن است؛ این مدل‌ها از داده‌های تصویری موجود در اینترنت و تاریخ بصری یاد می‌گیرند و همان الگوها را تکرار می‌کنند. نتیجه، تصاویری است که بازتاب واقعیت نیستند بلکه نسخه‌ای محدود و سوگیرانه از آن را ارائه می‌دهند.

انواع تعصب در خروجی‌های تصویری

تعصبات در مدل‌های هوش مصنوعی می‌توانند در سه شکل اصلی بروز کنند:

  • کم‌نمایی: گروه‌های اجتماعی خاص، مانند زنان یا اقلیت‌های قومی، کمتر در تصاویر نمایش داده می‌شوند یا کاملاً حذف می‌شوند.
  • کلیشه‌سازی آسیب‌زا: مدل‌ها ممکن است برخی گروه‌ها را به شکل اغراق‌شده یا نادرست بازنمایی کنند؛ برای مثال، تصاویر غیرواقعی و جنسی‌سازی‌شده از زنان آسیایی در مقابل پرتره‌های حرفه‌ای از مردان همکارشان.
  • تحریف‌های روزمره: در مشاغلی چون توسعه‌دهنده نرم‌افزار، اغلب فقط مردان سفیدپوست نمایش داده می‌شوند، در حالی‌که واقعیت بسیار متنوع‌تر است.

چرا این مسئله برای برندها مهم است؟

تعصب در تصاویر تولیدشده با هوش مصنوعی تنها یک دغدغه‌ی اخلاقی نیست؛ بلکه به عملکرد برند و اعتماد مخاطب نیز گره خورده است.

  • کاهش اعتماد: مخاطبی که خود را در روایت تصویری برند نمی‌بیند، احساس بیگانگی و بی‌اعتمادی پیدا می‌کند.
  • کاهش ارتباط با مخاطب: نبود تنوع در تصاویر باعث می‌شود گروه‌های مختلف اجتماعی با برند ارتباط نگیرند.
  • خطر قانونی: قوانین جدید در اروپا و آمریکا، شرکت‌ها را نسبت به خروجی‌های مغرضانه‌ی هوش مصنوعی مسئول می‌دانند.

بیشتر بخوانید: آیا هوش مصنوعی تفکر را منقرض خواهد کرد؟

راهکارهایی برای کاهش سوگیری تصویری

استفاده از هوش مصنوعی در تولید تصویر به معنای چشم‌پوشی از نظارت انسانی نیست. برندها و طراحان می‌توانند با چند اقدام ساده از تداوم این سوگیری‌ها جلوگیری کنند:

  1. تنوع در داده‌های آموزشی: استفاده از مجموعه‌داده‌هایی که بازتاب‌دهنده‌ی تنوع واقعی انسان‌ها از نظر جنسیت، قومیت و فرهنگ باشند.
  2. ممیزی و بررسی منظم خروجی‌ها: انجام آزمون‌های عدالت و تحلیل داده‌ها برای شناسایی الگوهای سوگیرانه.
  3. بازبینی انسانی: هیچ تصویر کلیدی نباید بدون نظارت انسانی منتشر شود. بازبینی توسط تیم‌های متنوع به شناسایی خطاهای پنهان کمک می‌کند.
  4. اصلاح هوشمند خروجی‌ها: تنظیم ترکیب‌بندی، نور، پس‌زمینه یا انتخاب سوژه‌ها می‌تواند تصویر را متعادل‌تر و واقعی‌تر کند.
  5. شفافیت در تولید محتوا: اطلاع‌رسانی درباره‌ی نحوه‌ی استفاده از ابزارهای هوش مصنوعی، اعتماد مخاطب را افزایش می‌دهد.

تصاویر فراگیر، آینده‌ی تصویرسازی برندها

تعصب در هوش مصنوعی مشکلی آینده‌نگر نیست؛ در حال حاضر بر نحوه‌ی دیده‌شدن برندها تأثیر می‌گذارد. شرکت‌هایی که به‌طور آگاهانه با این مسئله برخورد کنند، فرصت دارند تا تصاویری واقعی‌تر، انسانی‌تر و فراگیرتر خلق کنند — تصاویری که نه‌تنها از نظر اخلاقی درست‌ترند، بلکه ارتباط عمیق‌تری با مخاطب برقرار می‌کنند و عملکرد برند را نیز تقویت می‌کنند.


درباره‌ی نویسنده:
آلفردو دیامبروزی مدیر بخش محتوا در شرکت Imgix است. او پیش‌تر در Perspectium، Safesite و Ondaro فعالیت داشته و تجربه‌ی گسترده‌ای در حوزه‌ی فناوری تصویری و بازاریابی دارد. دیامبروزی تلاش می‌کند مفاهیم پیچیده‌ی تصویری را به زبان ساده و قابل درک برای مخاطبان حرفه‌ای و عمومی منتقل کند.