- شرکت رسانهای متعلق به Rupert Murdoch اعلام کرده که کتابهای ترامپ توسط موتورهای AI مصرف شده و درآمدزایی میکنند بیآنکه مجوزی داده شده باشد.
- این شرکت حقوق خود را “دزدیدهشده” از طریق AI توصیف کرده و قصد دارد اقدامات قانونی علیه استفادهکنندگان AI اتخاذ کند.
- تحلیل: این موضوع پرچم جدیتری درباره مالکیت معنوی محتوای تولیدشده توسط AI به اهتزاز درآورده است. آینده قانونی بسیاری از مدلهایی که روی دادههای نمایش عمومی آموزش دیدهاند در هالهای از ابهام قرار گرفته.
جزئیات شکایت Media Corp علیه استفاده AI از کتابهای ترامپ
- شرکت رسانهای News Corp (صاحب HarperCollins که منتشرکننده سه کتاب از دونالد ترامپ است) بهشدت به استفاده AI از محتوای عنوانهایی مانند The Art of the Deal انتقاد کرده و اعلام کرده این کتابها بدون مجوز توسط مدلهای هوش مصنوعی مصرف شدهاند و سپس برای تولید درآمد استفاده شدهاند. آنها این اقدام را «هنر سرقت» (The Art of the Deal has become The Art of the Steal) توصیف کردهاند.
- مدیرعامل News Corp، رابرت تامسون، تأکید کرده در مذاکراتی پیشرفته با چند شرکت AI درباره حقوق تألیف مشغول هستند، اما در کنار همکاری، آمادهاند حقوق معنوی محتواهای خود را نیز از طریق اقدام قانونی تأمین نمایند.
مبانی حقوقی و وضعیت پروندهها
- پرونده مشابهی علیه Meta در جریان بود: ادعا میشد برای آموزش مدل LLaMA از کتاب The Art of the Deal استفاده شده است. دادگاه این ادعا را رد کرد، قائل شد استدلالهای مدعیان ضعیف بودند اما تصمیمگیری درباره مشروعیت کلی استفاده از آثار بدون مجوز هنوز باز است.
- در مورد OpenAI، شکایتهای مشابهی از سوی نویسندگان مانند Sarah Silverman، Paul Tremblay، Mona Awad مطرح شدهاند. بسیاری از ادعاها در مرحله ابتدایی رد شدند، اما برخی اتهامات مثل نقض ممنوع رقابت یا حقوق مستقیم کپیرایت ادامه دارد و هنوز تصمیم نهایی صادر نشده.
- پرونده علیه Anthropic هم مشابه بوده است؛ دادگاه در مورد استفاده از کتابهای قانونی دفاع کرد ولی از استفاده از میلیونها نسخه دانلودشده غیرقانونی ایراد گرفت و بخش قضیه را به دادگاه برده است.
تحلیل فنی و پیامدهای راهبردی
ناشران در مقابل مدلهای AI
- ناشران مانند News Corp و HarperCollins میگویند AI بهصورت خودکار محتوای کتاب را بدون کسب مجوز استخراج کرده و از آن درآمد کسب کرده است—حتی اگر خروجیها مستقیماً تکرار نشده باشند. این مسأله حقوقی پیچیدهای است که باید در دادگاه بررسی شود.
دفاع استدلال fair use
- شرکتهای AI مانند Meta و OpenAI مدعی هستند این آموزشها تحت قاعده fair use قرار دارند، زیرا استفاده «transformative» بوده و خروجیها شامل نسخههای دقیق کتاب نیستند. چنین دفاعی تاکنون در برخی پروندهها موفقیتآمیز بوده است، اما هنوز در دادگاههای مختلف ادامه دارد.
ریسک کپیبرداری (Memorization)
- برخی شکایتها مدعی هستند که مدل AI خلاصههایی بسیار دقیق از کتابهای خاص ارائه دادهاند که صرفاً با آموزش مستقیم روی آن کتابها ممکن است—موضوع memorization یا overfitting که نگرانی حقوقی معناداری ایجاد کرده است.
اثر حقوقی گسترده
- این پروندهها تعیینکنندهاند برای اینکه آیا AI میتواند بدون مجوز قانونی از آثار محافظتشده استفاده کند یا باید با ناشران قراردادها و پرداخت داشته باشد. روند حقوقی فعلی نشانگر فشار فزاینده صنعت نشر برای کسب سهم بیشتر از ارزش محتوای تولیدشده توسط AI است.
خلاصه تحلیلی
| موضوع | جزئیات تحلیل |
|---|---|
| موضوع شکایت | استفاده بدون مجوز از کتابهای ترامپ توسط AI |
| ادعای حقوقی | درآمدزایی بدون مجوز، زیر پا گذاشتن IP |
| دفاع AI | «fair use»، استفادۀ تحویلی و غیرقابل تکرار |
| وضعیت پروندهها | برخی پروندهها رد، برخی در جریان دادگاه |
| پیامد احتمالی نهایی | الزام به توافق با ناشران و چارچوب حقوقی جدید |
| ریسکهای امنیتی/اخلاقی | خطر memorization، نقض اعتماد محتوا |
جمعبندی و توصیهها
نظارت اتحادیهنویسندگان و نویسندگان (مانند Authors Guild) در کنار اقدامات قانونی، تعیینکننده مسیر آینده سیاستهای استفاده از داده برای مدلهای هوش مصنوعی خواهد بود.
موضوع شکایت رسانهای علیه استفاده AI از محتوای کتاب ترامپ، نه تنها یک منازعه حقوقی ساده نیست بلکه نماد مشکلات ساختاری حقوق نشر در عصر AI است.
در صورت شکست دفاع fair use و تصمیم به نفع ناشران، ممکن است شرکتهای AI مجبور شوند مجوزهای گستردهای به ناشرین بدهند یا حق تألیف را بهطور مستقیم بپردازند.
مدلها و محصولات AI باید مسیرهای شفاف برای licensing داشته باشند تا از خطرات قانونی، کلایمهای حقوقی و اختلال در اعتماد کاربران اجتناب شود.
خلاصه و تحلیل مقاله: درخواست نیوز کورپ از ترامپ در مورد سرقت هوش مصنوعی
منبع: Sydney Morning Herald
تاریخ انتشار: ۶ آگوست ۲۰۲۵
نویسنده: کالوم جاسپن
خلاصه نکات کلیدی:
- درخواست از ترامپ در مورد سرقت محتوا توسط هوش مصنوعی:
- رابرت تامسون، مدیرعامل نیوز کورپ، در گزارش سالانه مالی شرکت بهطور غیرمستقیم از دونالد ترامپ خواست تا علیه سرقت محتوای فکری توسط شرکتهای هوش مصنوعی اقدام کند. او با اشاره به کتاب معروف ترامپ، «هنر معامله» (The Art of the Deal)، این وضعیت را «هنر سرقت» نامید و هشدار داد که هوش مصنوعی با استفاده غیرمجاز از آثار، فروش آینده کتابها را تضعیف میکند.
- تامسون خواستار جبران خسارتهای چند ده میلیارد دلاری از سوی شرکتهای هوش مصنوعی شد تا از ظهور یک «هوش مصنوعی مشتقشده و بیدار» جلوگیری شود.
- نتایج مالی قوی نیوز کورپ:
- نیوز کورپ رشد درآمدی ۲٪ با مجموع ۸.۴۵ میلیارد دلار (۱۳.۱ میلیارد دلار استرالیا) گزارش کرد، که عمدتاً ناشی از عملکرد قوی گروه REA (پلتفرم realestate.com.au) و شرکت داو جونز (ناشر وال استریت ژورنال) بود.
- سود قبل از بهره، مالیات، استهلاک و Amortization (EBITDA) با ۱۴٪ افزایش به ۱.۴۲ میلیارد دلار رسید.
- با وجود کاهش ۴٪ درآمد در بخش روزنامههای استرالیایی (مانند The Australian، Herald Sun و Daily Telegraph)، افزایش ۲.۵٪ در اشتراکهای دیجیتال این کاهش را جبران کرد.
- گروه REA با رشد ۱۵٪ درآمد (۱.۷ میلیارد دلار) و افزایش ۲۳٪ سود خالص پس از مالیات (۵۶۴ میلیون دلار) عملکرد برجستهای داشت.
- تنشهای حقوقی با ترامپ:
- این درخواست در حالی مطرح شد که روابط بین نیوز کورپ و ترامپ به دلیل دعوی حقوقی ۱۰ میلیارد دلاری اخیر او علیه وال استریت ژورنال تیره شده است. این دعوی به دلیل گزارش ژورنال درباره نامهای ادعایی از ترامپ به جفری اپستین در سال ۲۰۰۳ است.
- نیوز کورپ و وال استریت ژورنال قاطعانه از گزارش خود دفاع کرده و خواستار رد دعوی شدهاند. توافق اخیر برای به تعویق انداختن شهادت روپرت مورداک در این پرونده، نشانهای از تلاش برای کاهش تنشهاست.
- تحرکات استراتژیک:
- نیوز کورپ پس از فروش Foxtel به DAZN، ساختار سادهتری پیدا کرده و روی داراییهای دیجیتال مانند REA و داو جونز تمرکز دارد.
- این شرکت اعلام کرد که یک روزنامه جدید به نام The California Post را در لسآنجلس راهاندازی خواهد کرد که رویکردی محافظهکارانه مشابه نیویورک پست خواهد داشت.
- کاهش درآمد در بخشهای رسانهای بریتانیا (۱۰٪) و استرالیا (۴٪) نشاندهنده چالشهای صنعت چاپ است، اما رشد در بخش املاک دیجیتال این زیانها را جبران میکند.
تحلیل:
- استراتژی سیاسی و تجاری: درخواست تامسون از ترامپ را میتوان تلاشی برای جلب حمایت او در مبارزه با سرقت محتوای هوش مصنوعی دانست، بهویژه در زمانی که نیوز کورپ با دعوی حقوقی سنگین از سوی او مواجه است. این اقدام نشاندهنده رویکرد «هویج و چماق» مورداک برای مدیریت روابط با ترامپ است—تلاش برای همکاری در زمینهای مشترک (مبارزه با هوش مصنوعی) در حالی که تنشهای حقوقی ادامه دارد.
- تمرکز بر داراییهای دیجیتال: عملکرد قوی REA و داو جونز نشاندهنده موفقیت نیوز کورپ در انتقال به مدلهای درآمدی دیجیتال و اشتراکی است، در حالی که بخشهای سنتی چاپ با کاهش درآمد مواجهاند. راهاندازی The California Post نیز تلاشی برای گسترش نفوذ سیاسی محافظهکارانه در مناطق دموکراتنشین مانند لسآنجلس است.
- چالشهای حقوقی و روابط با ترامپ: دعوی حقوقی علیه وال استریت ژورنال و تلاش برای به تعویق انداختن شهادت مورداک نشاندهنده پیچیدگی روابط مورداک و ترامپ است. مورداک، با وجود حمایت تاریخی از سیاستهای محافظهکارانه، با انتشار گزارشهای حساس درباره اپستین، استقلال journalistic وال استریت ژورنال را حفظ کرده، اما این امر روابط با پایگاه MAGA ترامپ را به خطر انداخته است.
- تهدید هوش مصنوعی: اشاره به «هوش مصنوعی بیدار» و سرقت محتوا بخشی از استراتژی گستردهتر نیوز کورپ برای فشار بر شرکتهای فناوری است. این شرکت قبلاً با OpenAI توافقی ۲۵۰ میلیون دلاری برای استفاده از محتوایش امضا کرده و علیه Perplexity AI نیز شکایت کرده است، که نشاندهنده رویکرد دوگانه «همکاری و诉讼» است.
نکات برجسته:
- اهمیت برای نیوز کورپ: این درخواست از ترامپ نهتنها تلاشی برای محافظت از حقوق مالکیت فکری است، بلکه نشانهای از استراتژی مورداک برای حفظ نفوذ سیاسی و تجاری در عصر دیجیتال است.
- چشمانداز آینده: موفقیت REA و رشد اشتراکهای دیجیتال نشان میدهد که نیوز کورپ بهخوبی در حال تطبیق با تغییرات بازار است، اما چالشهای حقوقی و کاهش درآمد در بخشهای سنتی همچنان تهدید هستند.
- رابطه با ترامپ: تلاش برای جلب حمایت ترامپ در حالی که دعوی حقوقی ادامه دارد، نشاندهنده مهارت مورداک در مدیریت روابط پیچیده سیاسی و رسانهای است.
برای کاهش ریسک قانونی استفاده از دادههای کتابها یا دیگر آثار دارای حق نشر در آموزش مدلهای هوش مصنوعی، شرکتها باید راهحلهایی مسئولانه، شفاف، و مطابق با قانون طراحی کنند. در ادامه بهصورت مرحلهای و تحلیلی توضیح دادهام که چگونه این راهکارها قابل طراحی و پیادهسازی هستند:
تدوین سیاستهای دادهمحور شفاف و قابل دفاع حقوقی
- چرا مهم است؟ شکایات اخیر مانند دعوی علیه OpenAI بهخاطر استفاده از محتوای کتاب ترامپ نشان میدهد نبود سیاست داده شفاف، ریسکپذیری قانونی را افزایش میدهد.
- چه باید کرد؟
- مستندسازی دقیق منابع داده (کتاب، مقاله، وبسایت).
- تفکیک دادههای دارای مجوز، مالکیت عمومی، یا تحت استفاده منصفانه (Fair Use).
- شفافسازی فرآیند جمعآوری و استفاده از داده در اسناد مدل.
بستن قراردادهای مجوز محتوا (Content Licensing) با ناشران
- چرا مهم است؟ استفاده از محتوای دارای کپیرایت، بدون مجوز، منجر به دعاوی حقوقی میشود.
- چه باید کرد؟
- مذاکره با ناشران و پلتفرمهای محتوا برای خرید یا لایسنس رسمی متون.
- مدلسازی اقتصادی روی هزینه لایسنس در مقابل جریمههای احتمالی حقوقی.
استفاده از دادههای Synthetic یا بازسازیشده
- تعریف: ایجاد متون مشابه ولی متفاوت از متن اصلی به کمک مدلهای زبان قبلی یا با بازنویسی.
- مزیت: کاهش ریسک کپیرایت، حفظ ویژگیهای آماری داده اصلی.
جدا کردن فاز Pretraining و Fine-Tuning با سیاست داده متفاوت
- در Pretraining: از دادههای عمومی و کمریسک استفاده شود.
- در Fine-Tuning: از دادههای تخصصی با مجوز مشخص برای کاربرد خاص سازمان.
ابزارهای شناسایی دادههای دارای ریسک کپیرایت
- توسعه یا استفاده از ابزارهای AI برای:
- تشخیص خودکار شباهت متون به منابع دارای کپیرایت.
- فیلتر کردن محتواهای حساس پیش از ورود به پایگاه داده آموزشی.
پیادهسازی «Right to Opt-Out» برای نویسندگان
- همانطور که برخی نویسندگان و ناشران مانند New York Times و Authors Guild مطالبه کردهاند، شرکتها میتوانند:
- پورتال Opt-Out طراحی کنند.
- یا APIهایی برای ناشران ایجاد کنند تا آثار خود را از فرایند یادگیری AI حذف کنند.
افزودن ممیزی قانونی در چرخه عمر مدل
- تعریف مراحل بررسی قانونی در:
- انتخاب و پردازش داده.
- مستندسازی آموزش مدل.
- بررسی پاسخهای تولیدشده برای رعایت حقوق نشر.
پیروی از چارچوبهای مسئولیتپذیری بینالمللی (مثلاً EU AI Act)
- استفاده از معیارهای مسئولانهبودن مدل:
- Explainability
- Data Governance
- Transparency
- Fairness
- ثبت مدل در پایگاههای نظارتی در صورت نیاز (مثل EU AI Database).
نمونه عملیاتی پیشنهادی برای سازمانها:
| مرحله | راهکار پیشنهادی |
|---|---|
| 1. جمعآوری داده | فقط از منابع دارای مجوز (Creative Commons، Public Domain) |
| 2. پردازش | پاکسازی دادههای پرریسک با ابزارهای NLP |
| 3. آموزش | جداسازی مدلهای پیشتربیت و مدلهای کاربردی |
| 4. پیادهسازی | اتصال API سیاستهای استفاده مسئولانه و opt-out |
| 5. پایش مستمر | استفاده از ابزار شناسایی ریسک پاسخهای تولیدشده |
نتیجهگیری راهبردی:
برای آینده پایدار در آموزش مدلهای AI، سازمانها باید از الگوهای یادگیری اخلاقمحور و قانونیمحور استفاده کنند. این نه تنها ریسک حقوقی را کاهش میدهد، بلکه به ایجاد اعتماد عمومی و رقابتپذیری بلندمدت در بازار منجر میشود.
در ادامه یک چکلیست اجرایی و یک سند سیاستهای داده برای استفاده از AI در سازمانها آورده شده که به شرکتها کمک میکند از دادهها بهصورت مسئولانه استفاده کرده، ریسک قانونی را کاهش دهند و مطابق قوانین حریم خصوصی و کپیرایت عمل کنند:
چکلیست اجرایی استفاده مسئولانه از داده در پروژههای AI
| مرحله | اقدام | توضیحات |
|---|---|---|
| 1. شناسایی دادهها | 🔍 بررسی منابع داده | مشخصکردن اینکه دادهها از کجا تهیه شدهاند (عمومی، اختصاصی، دارای مجوز) |
| 2. طبقهبندی دادهها | 🔒 تعیین سطح حساسیت | دادهها را به عمومی، خصوصی، محرمانه و دارای کپیرایت طبقهبندی کنید |
| 3. دریافت مجوز | 📄 بررسی مالکیت حقوقی | برای استفاده از کتابها، مقالات، یا محتواهای دارای کپیرایت، مجوز دریافت شود |
| 4. مستندسازی | 📑 ثبت منبع و روش استفاده | تمام منابع و نحوه استفاده از دادهها مستند شود (برای ممیزی و پاسخگویی) |
| 5. حذف دادههای حساس | 🧹 پاکسازی دادهها | حذف اطلاعات شخصی و حساس طبق اصول privacy-by-design |
| 6. استفاده از داده مصنوعی یا خلاصهشده | 🧠 جایگزینی دادهها | در صورت حساس بودن داده، از نسخههای خلاصه یا synthetic استفاده شود |
| 7. کنترل دسترسی | 🛡️ اعمال محدودیت | دسترسی به دادههای آموزش باید محدود به افراد مجاز باشد |
| 8. تست قانونی | ⚖️ بازبینی حقوقی | تیم حقوقی بررسی کند که آیا دادهها نقض قوانین کپیرایت یا GDPR نمیکنند |
| 9. تعیین سیاست نگهداری | 🗃️ مدت زمان نگهداری داده | دادهها باید مدت مشخصی ذخیره شوند و سپس حذف یا آرشیو شوند |
| 10. مستندسازی خروجی مدل | 📤 ثبت خروجیها | بررسی شود که آیا خروجی مدل محتوای محافظتشده را بازتولید نمیکند |
سند سیاستهای داده برای پروژههای هوش مصنوعی
عنوان: سیاست استفاده مسئولانه از داده در پروژههای هوش مصنوعی
نسخه: 1.0
تاریخ تصویب: 2025/08/06
مرجع: تیم حقوقی + واحد تحقیق و توسعه
1. هدف
تعیین خطمشی رسمی شرکت در استفاده از دادهها برای توسعه، آموزش، fine-tune و استقرار مدلهای هوش مصنوعی، با رعایت اصول اخلاقی و قوانین مرتبط.
2. دامنه
این سیاست شامل همه پروژههای AI، کارکنان، پیمانکاران، و ابزارهایی است که در آنها از داده برای آموزش مدل یا inference استفاده میشود.
3. اصول کلیدی
| اصل | شرح |
|---|---|
| شفافیت | تمام دادههای مورد استفاده باید دارای مستندات دقیق در مورد منبع، مجوز و هدف باشند. |
| حداقلگرایی | تنها از دادههایی استفاده شود که برای هدف آموزش ضروری هستند. |
| حفاظت از حریم خصوصی | استفاده از دادههای شخصی تنها با رضایت و مطابق مقررات (مثل GDPR) مجاز است. |
| احترام به مالکیت فکری | هیچ دادهای که دارای کپیرایت است بدون مجوز معتبر استفاده نمیشود. |
| مسئولیت خروجی مدل | خروجیهای مدل که محتوای تولیدشده را شامل میشوند، نباید ناقض حقوق نویسنده یا ناشر باشند. |
4. مراحل ارزیابی پروژه
-
بررسی منبع دادهها (open source, licensed, user data)
-
ارزیابی ریسک قانونی توسط تیم حقوقی
-
بررسی وجود اطلاعات حساس یا شخصی
-
تست مدل برای جلوگیری از بازتولید مستقیم محتوای دارای حق نشر
-
بازبینی سالانه سیاستها و دادهها
5. پیادهسازی
-
هر پروژه AI باید دارای “مدیر مسئول داده” باشد.
-
هر مدل باید قبل از استقرار توسط تیم اخلاق و حقوق مورد بررسی نهایی قرار گیرد.
-
سیستم هشدار خودکار برای کشف موارد استفاده از محتوای محافظتشده در خروجی مدل فعال شود.
6. ضمانت اجرا
-
تخطی از این سیاست میتواند منجر به اقدامات انضباطی، شکایات قانونی یا ضرر مالی شود.
-
همه اعضای سازمان باید دوره آموزشی سیاست داده AI را گذرانده و گواهی دریافت کنند.

