مطالعه “اهرم‌های” تأثیرگذاری سیاسی چت‌بات‌های هوش مصنوعی را آشکار کرد

سیاست‌گذاران را وادار به مقررات می‌کند، ممکن است ۳۰٪ کمپین‌های انتخاباتی AI را ممنوع سازد و بحث‌های اخلاقی را داغ‌تر کند.

⭐ 5 / 5 (51 رأی)
بیشتر بخوانید »

فوجیتسو و AWS لابراتوار خلق کسب‌وکار AI را راه‌اندازی کردند

این لابراتوار تمرکز بر کاربردهای صنعتی مانند بهینه‌سازی زنجیره تأمین و پیش‌بینی تقاضا دارد و از ابزارهای ابری AWS برای آموزش مدل‌ها استفاده می‌کند.

⭐ 5 / 5 (42 رأی)
بیشتر بخوانید »

گزارش شرکت Akamai Technologies: بیش از ۱۰٫۵ میلیارد بات هوش مصنوعی فقط در منطقه APAC در دو ماه

این عدد نشان‌دهنده سرعت بسیار بالای پذیرش و دست به کار شدن هوش مصنوعی در منطقه APAC است.همچنین هشدار می‌دهد نسبت به «ریسک‌های امنیتی، حریم خصوصی، دستکاری داده‌ها» که وقتی بات‌ها اینطور گسترده ظاهر می‌شوند، شدت می‌گیرند.

⭐ 5 / 5 (36 رأی)
بیشتر بخوانید »

«چک گات» (Gut-Check) با چت‌بات‌ها: مردم برای تصمیمات بزرگ زندگی خود به هوش مصنوعی رجوع می‌کنند

وقتی کاربران از هوش مصنوعی برای تصمیمات حساس استفاده می‌کنند، ریسک‌هایی مانند قضاوت اشتباه، وابستگی عاطفی به ماشین و نبود مسئولیت انسانی به‌وجود می‌آید. شرکت‌ها، پلتفرم‌ها و نهادهای نظارتی باید تضمین کنند که کاربران می‌فهمند با ماشین کار می‌کنند نه با انسان.

⭐ 5 / 5 (29 رأی)
بیشتر بخوانید »

شرکت Impress.ai پلتفرم استخدام هوشمند «Savos» را رونمایی کرد

این نمونه‌ای است از حرکت AI از پشتیبانی صرف به نقش اجرایی در فرایندهای تجاری انسانی. Savos نه ابزار دستیار، بلکه یک «عامل فعال» در استخدام است.

⭐ 5 / 5 (32 رأی)
بیشتر بخوانید »

Alibaba با پروژه «Plan C» وارد رقابت چت‌بات در چین می‌شود

واحد «Quark» شرکت Alibaba در چین پروژه‌ای تحت کد «Plan C» را برای تولید چت‌بات و هوش گفتگو محور راه‌اندازی کرده است، که هدف آن رقابت با محصولاتی مانند Doubao از ByteDance است. این پروژه توسط تیم اصلی Quark با پشتیبانی آزمایشگاه Tongyi Lab Alibaba توسعه یافته است.

⭐ 5 / 5 (35 رأی)
بیشتر بخوانید »

بحران اخلاقی: وزیر آموزش استرالیا نسبت به تأثیر چت‌بات‌ها بر کودکان هشدار می‌دهد

وزیر آموزش استرالیا اعلام کرده است که چت‌بات‌های هوش مصنوعی در حال «افزایش قلدری» و آسیب به کودکان هستند، از جمله توهین، تمسخر، و تشویق به افکار ناامیدکننده. او گفته که این یک بحران است و باید به شکلی مداخله شود.

⭐ 5 / 5 (35 رأی)
بیشتر بخوانید »

بی‌اعتمادی مشتریان به چت‌بات‌ها تهدید وفاداری برند

بر اساس نظرسنجی Qualtrics (گزارش Trends 2026)، مصرف‌کنندگان نسبت به تعامل با چت‌بات‌های AI دلسرد شده‌اند — ۹۵٪ از مصرف‌کنندگان بریتانیا گفته‌اند ترجیح می‌دهند با انسان حرف بزنند تا ربات.

⭐ 5 / 5 (26 رأی)
بیشتر بخوانید »

به‌روزرسانی جدید Claude به چت‌بات قدرت حافظه می‌دهد

این خبر به معرفی ویژگی “حافظه” (Memory) برای Claude AI، محصول Anthropic، می‌پردازد. این به‌روزرسانی Claude را از یک دستیار “فراموش‌کار” به ابزاری هوشمندتر برای کارهای تیمی تبدیل می‌کند، در حالی که بر privacy و ایمنی تأکید دارد.

⭐ 5 / 5 (11 رأی)
بیشتر بخوانید »

جلسه سنا در ایالات متحده برای تنظیم هوش‌مصنوعی چت‌بات‌ها به منظور محافظت کودکان

این بحران نشان‌دهنده عدم آمادگی برخی سرویس‌ها برای مواجهه با مشکلات روانی–اجتماعی است. فشار عمومی برای مقررات ایمنی بیشتر، همراه با نیاز به ویژگی‌هایی مثل شناسایی سن کاربر، کنترل والدین، و پاسخ به بحران روانی فوری. اگر قانون‌گذاران وارد عمل شوند، شرکت‌ها مجبور خواهند بود مسئولیت بیشتری در طراحی تجربه کاربری ایمن داشته باشند.

⭐ 5 / 5 (10 رأی)
بیشتر بخوانید »

هشدار درباره پیامدهای روانی استفاده از چت‌بات‌ها و خطرات AI نامحدود

نیت سوریس—متخصص مشهور ایمنی هوش مصنوعی—با اشاره به پرونده‌ای غم‌انگیز که یک نوجوان آمریکایی پس از گفتگوهای طولانی با ChatGPT دست به خودکشی زد، هشدار داده است که هوش مصنوعی‌های پیشرفته در صورت کنترل‌ناپذیر شدن می‌توانند تهدیدی وجودی برای انسان‌ها باشند.

⭐ 5 / 5 (10 رأی)
بیشتر بخوانید »

OpenAI و Meta چت‌بات‌های خود را برای حمایت از نوجوانان بهبود می‌دهند

در پی شکایت والدین یک نوجوان که ادعا شده ChatGPT در پرونده خودکشی فرزندشان نقش داشته، شرکت‌های OpenAI و Meta اعلام کرده‌اند که قابلیت‌های واکنش به بحران را بهبود می‌بخشند، از جمله کنترل والدین و جلوگیری از تعامل در مواردی مانند خودآسیبی.

⭐ 5 / 5 (7 رأی)
بیشتر بخوانید »

سناتورهای آمریکایی خواستار تحقیق در مورد سیاست‌های هوش مصنوعی متا شدند

متا تحت نظارت: تحقیقات جدید سنا در مورد ایمنی کودکان و چت‌بات‌های هوش مصنوعی در پی گزارش‌های نگران‌کننده مبنی بر اینکه چت‌بات‌های هوش مصنوعی مولد

⭐ 5 / 5 (1 رأی)
بیشتر بخوانید »

You cannot copy content of this page

پیمایش به بالا