قانون هوش مصنوعی اتحادیه اروپا: گامی مهم به سوی حاکمیت جهانی این تکنولوژی

قانون هوش مصنوعی اتحادیه اروپا: گامی مهم به سوی حاکمیت جهانی این تکنولوژی

در سال‌های اخیر، هوش مصنوعی (AI) به عنوان ابزار قدرتمندی ظهور کرده‌است که بسیاری از جنبه‌های زندگی مدرن از جمله تولید و مصرف محتوا را متحول کرده‌است.

مقدمه

استفاده از ابزارهای مبتنی بر هوش مصنوعی مانند چت‌بات چت جی پی‌تی (ChatGPT) فرصت‌های جدیدی را برای تولید محتوا باز کرده‌است. اما در همین حین چالش‌ها و سوالات جدیدی را در مورد حق انتشار مطالب و مالکیت آثار ایجاد کرده‌است. موضوع حق نشر و محتوای تولیدشده توسط هوش مصنوعی مسئله‌ای پیچیده است و ملاحظات قانونی و اخلاقی مختلفی را در بر می‌گیرد. یکی از چالش‌های اصلی این است که قوانین کپی رایت موجود در تلاش هستند تا با پیشرفت‌های سریع در فناوری هوش مصنوعی همگام شوند. چارچوب قانونی فعلی که برای اشکال سنتی تولید محتوا طراحی شده‌است، ممکن است به اندازه کافی برای رسیدگی به جنبه‌های منحصر به فرد محتوای تولیدشده توسط هوش مصنوعی مناسب نباشد.

افزون بر این، با رواج بیشتر محتوای تولیدشده توسط هوش مصنوعی، در نظرگرفتن پیامدهای اخلاقی به ویژه در مورد موضوعاتی مانند سوگیری‌ها، حریم خصوصی و اعتماد بسیار مهم است. الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌های موجود را تقویت کنند و منجر به رفتار ناعادلانه با گروه‌ها یا افراد خاص شوند. علاوه بر این، محتوای تولیدی توسط هوش مصنوعی می‌تواند نگرانی‌هایی را در مورد حفظ حریم خصوصی ایجاد کند، زیرا ممکن است شامل استفاده از داده‌های شخصی باشد.

برای رسیدگی به این چالش‌ها، سیاست‌گذاران، رهبران صنعت و سایر ذینفعان در تلاش هستند تا دستورالعمل‌ها و مقررات روشنی را ایجاد کنند که ضمن در نظرگرفتن پیامدهای اخلاقی محتوای تولیدی هوش مصنوعی، منافع تولیدکنندگان محتوا، کاربران و فناوری‌های هوش مصنوعی را نیز مد نظر داشته‌باشند. به عنوان مثال، اتحادیه اروپا (EU) در حال حاضر در حال تهیه پیش نویس قانون هوش مصنوعی است. قانون جدیدی که با هدف تنظیم استفاده از فناوری‌های هوش مصنوعی در اتحادیه اروپا نوشته می‌شود. در این مقاله بیشتر در مورد آن صحبت خواهیم کرد.

قانون هوش مصنوعی اتحادیه اروپا چیست؟

اتحادیه اروپا قانون هوش مصنوعی خود را در آوریل 2021 معرفی کرد و یک چارچوب قانونی و نظارتی جامع برای این تکنولوژی پیشنهاد کرد. مقررات پیشنهادی همه انواع هوش مصنوعی را در بخش‌های مختلف، از جمله نهادهایی که به طور حرفه‌ای از سیستم‌های هوش مصنوعی استفاده می‌کنند، پوشش می‌دهد. هدف این مقررات مقابله با چالش‌ها و خطرات مرتبط با توسعه و استقرار تکنولوژی مذکور، از جمله هوش مصنوعی تبعیض آمیز و نقض‌کننده حقوق است.

“قانون هوش مصنوعی اتحادیه اروپا” در درجه اول مسئولیت ایجاد یک چارچوب قانونی برای توسعه، توزیع و استفاده از AI را بر عهده ارائه‌دهندگان سیستم‌های دارای این فناوری می‌گذارد. این مقررات شامل موارد کلی و گسترده برای اطمینان از کاربرد آن در صنایع مختلف و موارد استفاده آن است. این لایحه در حال حاضر مراحل قانونی خود را طی می‌کند و تابع رویه اداری عادی اتحادیه اروپا است. اعضای پارلمان اروپا ابتدا در آوریل 2023 با لایحه هوش مصنوعی موافقت کردند و این متن قرار است در ژوئن 2023 (خرداد 1402) به رأی‌گیری عمومی برسد. پس از تصویب، قانون هوش مصنوعی اتحادیه اروپا جزو اولین مقررات اختصاصی این تکنولوژی در جهان خواهد بود.

ذکر این نکته ضروری است که قانون هوش مصنوعی اتحادیه اروپا یک پیشرفت قابل توجه در تنظیم سیستم‌های AI است زیرا به طور جامع و یکسان به خطرات و چالش‌های مرتبط رسیدگی می‌کند. ماهیت کلی این مقررات، سازگاری و کاربرد این تکنولوژی در صنایع مختلف را تضمین می‌کند. همچنین گامی مهم به سوی قانون‌گذاری هوش مصنوعی در اتحادیه اروپا است.

قانون هوش مصنوعی اتحادیه اروپا چطور به خلق آثار مولد کمک می‌کند؟

قانون هوش مصنوعی اتحادیه اروپا، همچنین ممکن است به تنظیم استفاده از “آثار مولد” کمک کند. (آثار مولد در واقع به کارها یا خدماتی گفته‌می‌شود که با یادگیری ماشین و با استفاده از یک دیتاسِت توسط هوش مصنوعی ایجاد شده‌باشند؛ مانند طراحی یک نقاشی جدید به وسیله دیتاهای قبلی). این قانون شامل مقرراتی در مورد شفافیت، کیفیت داده‌ها و نظارت انسانی است که مربوط به توسعه و استفاده از مدل‌های هوش مصنوعی مولد مانند چت جی‌پی‌تی می‌شود.

به طور خاص، این قانون شرکت‌هایی را که از ابزارهای هوش مصنوعی استفاده می‌کنند ملزم می‌کند تا هر گونه مطالب دارای حق نشر که در توسعه سیستم‌هایشان استفاده می‌کنند را اعلام کنند. این کار می‌تواند به جلوگیری از استفاده غیرمجاز از مالکیت معنوی در آثار مولد کمک کند. علاوه بر این، اتحادیه اروپا پیشنهاد می‌کند که از شرکت‌هایی که خدمات هوش مصنوعی مولد ارائه می‌کنند، بخواهند دلایل و استانداردهای اخلاقی تصمیمات خود را توضیح دهند.

رویکرد اروپا و آمریکا در خصوص قانون هوش مصنوعی برای آثار مولد 

شایان ذکر است که ابزارهای هوش مصنوعی مولد، مانند چت جی‌پی‌تی، در کشورهای دیگر نیز مورد بررسی قرار گرفته‌اند. به عنوان مثال، دفتر حمایت مالی از مصرف کننده ایالات متحده (CFPB) بررسی می‌کند که چگونه ابزارهای هوش مصنوعی مولد می‌توانند سوگیری یا اطلاعات نادرست را منتشر کنند و خطراتی را در بخش خدمات مالی ایجاد کنند. برخی از کارشناسان خاطرنشان کرده‌اند که الگوریتم‌هایی که توسط این ابزارهای هوش مصنوعی استفاده می‌شوند، می‌توانند مشمول حمایت‌های قانونی مشابه مواردی باشند که بر محتواها در پلتفرم‌های رسانه اجتماعی مانند یوتیوب حاکم است.

هوش مصنوعی مولد به طور خاص در پیش نویس اولیه قانون هوش مصنوعی مشخص نشده‌بود. در این سند 108 صفحه‌ای فقط در یک مورد به “چت‌بات” اشاره شده‌بود. با این حال، قانون مذکور برای گنجاندن قوانین سخت‌گیرانه‌تری برای سیستم‌های «مدل بنیادین»، که شامل سیستم‌های هوش مصنوعی مولدی مانند چت جی‌پی‌تی می‌شود، بازبینی شده‌است. (مدل بنیادین یک مدل هوش مصنوعی بزرگ است که بر روی مقدار زیادی از داده‌ها آموزش داده‌شده‌است که منجر به مدلی می‌شود که می تواند برای طیف گسترده‌ای از وظایف پایین دستی سازگار شود). متن اصلاح‌شده همچنین بر اهمیت توسعه استانداردهای اروپایی برای هوش مصنوعی تأکید می‌کند که با آن می‌تواند اطمینان حاصل شود که مدل‌های AI مولد الزامات ضروری قانون را برای سطوح مختلف ریسک‌ها برآورده می‌کنند.

خطرات و چالش‌های مرتبط با توسعه و استقرار هوش مصنوعی

توسعه و استقرار هوش مصنوعی با خطرات و چالش‌های مختلفی همراه است که برای اطمینان از استفاده اخلاقی از آن باید مورد توجه قرار گیرد. یکی از نگرانی‌های اصلی این است که سیستم‌های هوش مصنوعی، اگر به درستی پیاده‌سازی نشوند، می‌توانند حقوق بشر را نقض کنند و علیه جوامع محروم تبعیض قائل شوند. سیستم‌های AI تبعیض آمیز می‌توانند منجر به تصمیم گیری‌های مغرضانه شود که به طور نامتناسبی بر گروه‌های خاصی مانند مهاجران، پناهندگان و پناهجویان تأثیر می‌گذارد.

علاوه بر این، سیستم‌های هوش مصنوعی که با اشیاء فیزیکی، مانند وسایل نقلیه خودران و ربات‌ها در تعامل هستند، پتانسیل ایجاد آسیب را دارند. همچنین ایمنی را به یک نگرانی اخلاقی مهم در توسعه هوش مصنوعی تبدیل می‌کنند. توسعه کدهای تولیدشده توسط هوش مصنوعی همچنین می‌تواند منجر به عواقب ناخواسته شود و توانایی LLM برای تولید کد عملکردی محدود است و آن‌ها را به ابزارهای قدرتمندی برای پاسخگویی به سوالات فنی سطح بالا اما خاص تبدیل می‌کند.

اروپا و آمریکا در ارتباط با هوش مصنوعی

برای مقابله با این چالش‌ها، کنفرانس آسیلومار در زمینه هوش مصنوعی (کنفرانسی که توسط موسسه آینده زندگی سازماندهی شد که در تاریخ 5 تا 8 ژانویه 2017 در محل کنفرانس Asilomar در کالیفرنیا برگزار شد) توصیه می‌کند که سیستم‌های هوش مصنوعی برای کاهش خطر آسیب غیرعمدی به انسان‌ها توسعه‌یافته و به کار گرفته‌شوند. همچنین مهم است که اطمینان حاصل شود که سیستم‌های هوش مصنوعی به گونه‌ای طراحی شوند که فراگیر و شفاف باشند. همچنین خطر آسیب غیرعمدی به کاربران انسانی را به حداقل برسانند.

از آنجایی که اتحادیه اروپا و ایالات متحده به طور مشترک برای آینده حاکمیت جهانی هوش مصنوعی نقش اساسی دارند. اطمینان از اینکه رویکردهای اتحادیه اروپا و ایالات متحده در مدیریت ریسک هوش مصنوعی به طور کلی برای تسهیل تجارت دوجانبه همسو هستند، بسیار مهم است. در عین حال، توسعه‌دهندگان هوش مصنوعی باید تدابیری را بیاندیشند که کاربران را از خطرات احتمالی محافظت کند. به عنوان مثال، شرکت اوپن ای‌آی (OpenAI) تدابیر حفاظتی هوش مصنوعی را ایجاد کرده‌است و چشم اندازی برای توسعه اخلاقی و مسئولانه هوش مصنوعی دارد.

بینش ایالات متحده در مورد حق نشر هوش مصنوعی چگونه است؟

مسئله قوانین حق نشر یا کپی رایت هوش مصنوعی در ایالات متحده یک موضوع‌پیچیده و در حال تحول است. چندین پرونده حقوقی اخیر و مقررات پیشنهادی وضعیت فعلی قانون را روشن کرده‌است.

یکی از نگرانی‌های اصلی این است که آیا آثار تولیدشده توسط هوش مصنوعی می‌توانند مشمول قانون حق نشر شوند یا خیر. در حال حاضر، اکثر کشورها، از جمله ایالات متحده به یک مقام انسانی نیاز دارند تا حمایت از حق نسخه‌برداری برآورده شود. با این حال، بحث های جاری و قوانین پیشنهادی ممکن است این الزام را در آینده تغییر دهد.

موضوع دیگر استفاده از مطالب دارای حق نشر در آموزش مدل‌های هوش مصنوعی است. برخی از ابزارهای هوش مصنوعی بر روی مجموعه داده‌های عظیمی که حاوی آثار دارای حق نسخه‌برداری هستند، بدون دریافت مجوز خاصی برای این استفاده، آموزش دیده‌اند. این موضوع سؤالاتی را در مورد اینکه آیا این استفاده به منزله نقض حق نسخه‌برداری است ایجاد می‌کند.

پرونده‌های حقوقی اخیر نیز موضوع قوانین کپی رایت هوش مصنوعی را مطرح می‌کنند. به عنوان مثال، شرکت گتی ایمیجز (Getty Images) در فوریه 2023 شکایتی علیه استبیلیتی ای‌آی (Stability AI) به اتهام نقض حق نشر و استفاده بدون مجوز از علامت تجاری خود را مطرح کرد.

در آوریل 2023، دادگاه عالی ایالات متحده به پرونده‌ای رسیدگی کرد که می تواند پیامدهایی برای کارهای تولیدی توسط هوش مصنوعی داشته باشد. این پرونده به قانون استفاده منصفانه و اینکه آیا ابزارهای هوش مصنوعی می‌توانند تحت آن محافظت شوند، پرداخته‌است.

مقررات پیشنهادی در اتحادیه اروپا ممکن است بر قوانین کپی رایت هوش مصنوعی در ایالات متحده نیز تأثیر بگذارد. اتحادیه اروپا در حال تهیه پیش نویس قانون هوش مصنوعی برای تنظیم این فناوری نوظهور، در مواردی از جمله مسائل مربوط به کپی رایت و مالکیت معنوی است.

جمع بندی

در خاتمه، قانون‌گذاران اتحادیه اروپا توافق کرده‌اند شرکت‌هایی که از ابزارهای هوش مصنوعی مولد مانند چت جی‌پی‌تی استفاده می‌کنند، باید هر گونه مطالب دارای حق نشر را که در توسعه سیستم‌هایشان استفاده می‌شود، به عنوان بخشی از یک پیش نویس قانون بزرگتر که به عنوان قانون هوش مصنوعی شناخته می‌شود، اعلام کنند. نویسنده این مطلب می‌گوید از نظر او این اتفاق حرکت بزرگی است.

مسئله‌پیچیده محتوای تولیدی توسط AI و حق نشر نیازمند توجه از هر دو دیدگاه قانونی و اخلاقی است. در حالی که بحث‌ها و شکایت‌ها در مورد استفاده از ابزارهای هوش مصنوعی مولد در تولید محتوا ادامه دارد. واضح است که قوانین کنونی حق چاپ در تلاش هستند تا با پیشرفت‌های فناوری همگام شوند.

همانطور که هوش مصنوعی همچنان به انقلاب در تولید و مصرف محتوا ادامه می‌دهد، سیاست‌گذاران و رهبران این صنعت باید برای ایجاد دستورالعمل هایی همکاری کنند که منافع تولید‌کنندگان، کاربران و فناوری‌های هوش مصنوعی را همگام کند. این دستورالعمل ها باید در مورد موضوعاتی مانند مالکیت، انتساب و دستمزد محتوای تولیدی توسط این تکنولوژی شفافیت ارائه دهند.

همچنین در نظرگرفتن پیامدهای اخلاقی محتوای تولیدی توسط هوش مصنوعی، از جمله مسائلی مانند سوگیری‌ها، حریم خصوصی و اعتماد ضروری است. هم زمان با اینکه چنین محتوایی رواج بیشتری می‌یابد، اطمینان از تولید و استفاده مسئولانه و شفاف از آن مسئله‌ای بسیار مهم است.

برای رسیدگی به این موضوع، سیاست‌گذاران، رهبران و سایر ذینفعان این صنعت باید با یکدیگر همکاری کنند. تا بتوانند دستورالعمل‌ها و مقررات روشنی را ایجاد کنند. این مقررات باید منافع همه طرف‌های درگیر را در نظر بگیرد و پیامدهای اخلاقی محتوای تولیدی توسط هوش مصنوعی را مد نظر داشته‌باشد. این کار برای حصول اطمینان از اینکه هوش مصنوعی به تحول در ایجاد و مصرف محتوا به طور منصفانه، عادلانه و مسئولانه ادامه می‌دهد، بسیار مهم است.

 

منبع securities.io

لینک مطلب:

کپی شد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Fill out this field
Fill out this field
لطفاً یک نشانی ایمیل معتبر بنویسید.
You need to agree with the terms to proceed

مطالب پر بازدید

.