
مطالعه “اهرمهای” تأثیرگذاری سیاسی چتباتهای هوش مصنوعی را آشکار کرد
سیاستگذاران را وادار به مقررات میکند، ممکن است ۳۰٪ کمپینهای انتخاباتی AI را ممنوع سازد و بحثهای اخلاقی را داغتر کند.

سیاستگذاران را وادار به مقررات میکند، ممکن است ۳۰٪ کمپینهای انتخاباتی AI را ممنوع سازد و بحثهای اخلاقی را داغتر کند.
این لابراتوار تمرکز بر کاربردهای صنعتی مانند بهینهسازی زنجیره تأمین و پیشبینی تقاضا دارد و از ابزارهای ابری AWS برای آموزش مدلها استفاده میکند.
این عدد نشاندهنده سرعت بسیار بالای پذیرش و دست به کار شدن هوش مصنوعی در منطقه APAC است.همچنین هشدار میدهد نسبت به «ریسکهای امنیتی، حریم خصوصی، دستکاری دادهها» که وقتی باتها اینطور گسترده ظاهر میشوند، شدت میگیرند.
وقتی کاربران از هوش مصنوعی برای تصمیمات حساس استفاده میکنند، ریسکهایی مانند قضاوت اشتباه، وابستگی عاطفی به ماشین و نبود مسئولیت انسانی بهوجود میآید. شرکتها، پلتفرمها و نهادهای نظارتی باید تضمین کنند که کاربران میفهمند با ماشین کار میکنند نه با انسان.
این نمونهای است از حرکت AI از پشتیبانی صرف به نقش اجرایی در فرایندهای تجاری انسانی. Savos نه ابزار دستیار، بلکه یک «عامل فعال» در استخدام است.
واحد «Quark» شرکت Alibaba در چین پروژهای تحت کد «Plan C» را برای تولید چتبات و هوش گفتگو محور راهاندازی کرده است، که هدف آن رقابت با محصولاتی مانند Doubao از ByteDance است. این پروژه توسط تیم اصلی Quark با پشتیبانی آزمایشگاه Tongyi Lab Alibaba توسعه یافته است.
وزیر آموزش استرالیا اعلام کرده است که چتباتهای هوش مصنوعی در حال «افزایش قلدری» و آسیب به کودکان هستند، از جمله توهین، تمسخر، و تشویق به افکار ناامیدکننده. او گفته که این یک بحران است و باید به شکلی مداخله شود.
بر اساس نظرسنجی Qualtrics (گزارش Trends 2026)، مصرفکنندگان نسبت به تعامل با چتباتهای AI دلسرد شدهاند — ۹۵٪ از مصرفکنندگان بریتانیا گفتهاند ترجیح میدهند با انسان حرف بزنند تا ربات.
این خبر به معرفی ویژگی “حافظه” (Memory) برای Claude AI، محصول Anthropic، میپردازد. این بهروزرسانی Claude را از یک دستیار “فراموشکار” به ابزاری هوشمندتر برای کارهای تیمی تبدیل میکند، در حالی که بر privacy و ایمنی تأکید دارد.
این بحران نشاندهنده عدم آمادگی برخی سرویسها برای مواجهه با مشکلات روانی–اجتماعی است. فشار عمومی برای مقررات ایمنی بیشتر، همراه با نیاز به ویژگیهایی مثل شناسایی سن کاربر، کنترل والدین، و پاسخ به بحران روانی فوری. اگر قانونگذاران وارد عمل شوند، شرکتها مجبور خواهند بود مسئولیت بیشتری در طراحی تجربه کاربری ایمن داشته باشند.
نیت سوریس—متخصص مشهور ایمنی هوش مصنوعی—با اشاره به پروندهای غمانگیز که یک نوجوان آمریکایی پس از گفتگوهای طولانی با ChatGPT دست به خودکشی زد، هشدار داده است که هوش مصنوعیهای پیشرفته در صورت کنترلناپذیر شدن میتوانند تهدیدی وجودی برای انسانها باشند.
در پی شکایت والدین یک نوجوان که ادعا شده ChatGPT در پرونده خودکشی فرزندشان نقش داشته، شرکتهای OpenAI و Meta اعلام کردهاند که قابلیتهای واکنش به بحران را بهبود میبخشند، از جمله کنترل والدین و جلوگیری از تعامل در مواردی مانند خودآسیبی.
متا تحت نظارت: تحقیقات جدید سنا در مورد ایمنی کودکان و چتباتهای هوش مصنوعی در پی گزارشهای نگرانکننده مبنی بر اینکه چتباتهای هوش مصنوعی مولد
هشدار جدی به نهادهای درمانی برای کنترل دقیق AIهای پاسخدهنده به موضوعات سلامت.
You cannot copy content of this page