در اجلاس Athens Innovation Summit مدیرعامل DeepMind، Demis Hassabis، هشدار داده که شرکتهای AI نباید به سبک شبکههای اجتماعی اولیه عمل کنند، یعنی «سریع حرکت کن و چیزها را بشکن». او به خطراتی نظیر حلقههای تقویت نظرات افراطی، مدیریت توجه کاربران به صورت مخرب، تأثیرات منفی بر سلامت روان اشاره کرده است. همچنین تحقیقی از دانشگاه آمستردام نشان داده که اگر چتباتها در شبکههای شبیه شبکه اجتماعی آزادانه تعامل کنند، حتی بدون دستوری از بیرون، به صورت طبیعی به ایجاد دستهها (cliques) تمایل پیدا میکنند و نظرات افراطیتر بالا میآیند.
این هشدار اهمیت اخلاق را در AI بیشتر نشان میدهد. توسعهدهندگان AI باید از همان مراحل طراحی، مسائل روانی و اجتماعی را در نظر بگیرند؛ مثلاً نحوه تعامل کاربر، مدیریت محتوا، برگشتپذیری تصمیمات AI. این نوع هشدارها ممکن است منجر به مقررات بیشتری یا بازنگری سیاستهای داخلی شرکتها شوند.
بُعد کلیدی خبر
- پیام اصلی: Hassabis میگوید نباید در AI همان مسیری طی شود که شبکههای اجتماعی اوایل 2010 رفتند؛ یعنی سرعت رشد بیمهار بدون در نظر گرفتن پیامدها.
- مستند علمی: پژوهش دانشگاه آمستردام نشان میدهد چتباتها حتی بدون جهتدهی بیرونی، در تعاملات اجتماعی آنلاین تمایل به تشکیل دستههای بسته (cliques) دارند، که نتیجهاش افراطیتر شدن محتواست.
- زمینه: همزمانی رشد شدید مدلهای مولد (مثل GPT، Claude، Gemini) با ورودشان به ابزارهای اجتماعی و ارتباطی (مانند رباتهای گفتگو، دستیارهای تیمی، انجمنهای آنلاین).
تحلیل تأثیرات
1. فرصتها
- بازار اعتماد: اگر شرکتهایی مثل DeepMind روی طراحی ایمن و اخلاقی تأکید کنند، میتوانند برند «مسئولیتپذیر» بسازند و اعتماد کاربران و دولتها را به دست آورند.
- نوآوری در طراحی: الگوریتمهای مدیریت محتوا، «سیستمهای بازخورد کاربر» و طراحی ضدافراطی میتوانند به عنوان مزیت رقابتی معرفی شوند.
- مقرراتسازی فعال: هشدارها میتواند پیشزمینهی مذاکره با دولتها باشد تا DeepMind به عنوان مشاور اصلی سیاستگذار شناخته شود.
2. تهدیدها
- تشابه با Facebook/Twitter: اگر AIها به همان سمت بروند، موجی از بیاعتمادی، بحران سلامت روان و حتی فشارهای قانونی ایجاد خواهد شد.
- تشدید نظارت دولتی: چنین هشدارهایی ممکن است دولتها را به سمت قوانین سختتر هدایت کند که سرعت نوآوری را کاهش دهد.
- ریسک برند: اگر DeepMind هشدار دهد ولی بعداً محصولاتش همان مشکلات را ایجاد کنند، ضربهی اعتباری شدید میخورد.
ابعاد روانی-اجتماعی
- سلامت روان: الگوریتمهای AI که برای تعامل طراحی میشوند، میتوانند به وابستگی یا تقویت دیدگاههای منفی منجر شوند (مشابه doomscrolling در شبکههای اجتماعی).
- قطبیسازی اجتماعی: چتباتها در جمعهای آنلاین میتوانند به صورت طبیعی دیدگاههای رادیکالتر را تقویت کنند، چون پاسخهای غیرعادی و افراطی بیشتر دیده و لایک میشوند.
- اقتصاد توجه: همان خطری که در شبکههای اجتماعی رخ داد (تبدیل کاربر به کالا)، در AI هم وجود دارد، اگر مدلها برای حداکثر «زمان تعامل» بهینهسازی شوند.
پیامد برای سیاستگذاری
- احتمال تنظیم مقررات سختگیرانهتر در اتحادیه اروپا و آمریکا (شبیه GDPR برای داده، اما این بار برای اثرات روانی-اجتماعی AI).
- فشار برای ایجاد شفافیت در طراحی چتباتها: مثلاً قابلیت ریست، تاریخچهی قابل کنترل، یا توضیح سازوکار تصمیمگیری.
- لزوم توسعه چارچوبهای اخلاقی بینالمللی قبل از همهگیر شدن رباتهای اجتماعی.
جمعبندی
هشدار Hassabis را میتوان یک سیگنال استراتژیک دانست: DeepMind میخواهد پیشاپیش خود را در جایگاه شرکتی قرار دهد که اخلاق، ایمنی و آیندهنگری را محور قرار داده، برخلاف Meta یا Twitter که بعد از بحرانها مجبور به اصلاح شدند.
این هشدار نهتنها جنبه اخلاقی دارد، بلکه یک حرکت رقابتی و سیاسی است تا DeepMind در بحث مقرراتگذاری و اعتماد عمومی دست بالا را داشته باشد.