درباره قواعد و مقررات دریافت اعتبار ریالی از صرافیهای رمزارز؛ قانونی اما پرخطر
مدتی است صرافیهای رمزارز در ایران اقدام به ارائه اعتبار ریالی به مشتریان خود میکنند…
۹ آبان ۱۴۰۳
جهان از روزهای آخر سال ۲۰۲۲ با پدیدهای به نام «چت جیپیتی» روبهرو شده است. نوعی هوش مصنوعی که با استفاده از دادههایی که در اختیارش قرار میگیرد میتواند محصولات متنی، تصویری و… تولید کند و مثلاً یک قرارداد حقوقی، یک کد برنامهنویسی و یک تصویر فرضی بسازد. چت جیپیتی البته یکی از برندهای هوش مصنوعی است که از سوی شرکتی به نام OpenAI توسعه یافته است اما به هر حال همانطور که ما به هر پودر لباسشویی «تاید» میگوییم، به هر هوش مصنوعی هم، دستکم در میان عامه، چت جیپیتی گفته میشود.
طبیعتاً از همان ابتدا، نگرانیهای حقوقیای در مورد این محصول به وجود آمد. این نگرانیها در هر سه حوزه ورودی (دادههای مورد استفادهی این ماشین)، خروجی (محصول ارائهشده) و احتمال سوءاستفاده از آن بود. در این جریان شاهدیم که دستکم یک کشور یعنی ایتالیا، این نرمافزار را ممنوع کرد، یک جلسه برای این موضوع در سطح بالای مدیران عامل شرکتهای فناوری در کاخ سفید با معاون رئیسجمهور آمریکا برگزار و طرح مربوط به نظاممندسازی هوش مصنوعی در یکی از کمیتههای پارلمان اروپا تصویب شد و قرار است در اواسط ماه ژوئن در صحن این پارلمان به رأی گذاشته شود. بنابراین ماجرا واقعاً جدی است!
دو حقوقدان لهستانی به نامهای Agnieszka Wachowska و Marcin Regorowicz که هر دو عضو یک سازمان حقوقی به نام Traple Konarski Podrecki & Partners هستند، حدود دو ماه پیش مقالهای در سایت معتبر حقوقی lexology نوشتند و در آن دغدغههای حوزه حقوق در استفاده از هوش مصنوعی را مطرح کردند. این گزارش در واقع خلاصه ترجمه آن مقاله است به اضافه برخی اضافات و مقالها حتی از حقوق ایران که بتواند در فهم بهتر این مطلب کمک کند.
برای اینکه ChatGPT بتواند هر نوع محتوایی تولید کند، ابتدا باید سوال مناسب از آن پرسیده شود. این سوالات ممکن است دستوری باشد که شامل هیچ نوع دادهای نیست. مثلاً اینکه من به چت جیپیتی بگویم مطلبی در زمینه «حقوق تجارت ایران» تولید کن. با این حال برخی اوقات ممکن است من دیتایی به این نرمافزار بدهم که حاوی دادههایی باشد که محافظت میشوند یا مشمول قوانین خاصی هستند. در اینجاست که موضوع میتواند بار حقوقی پیدا کند. به این مثالها توجه کنید:
۱. فردی بخشی از استراتژی توسعه بازار یک شرکت را که جزو دادههای تجاری محرمانه شرکت است در اختیار این نرمافزار میگذارد تا بتواند نظر نرمافزار را در مورد توسعه آن بداند.
۲. فردی یک کد برنامهنویسی را که یک پیمانکار طی یک قرارداد نوشته است اما در قرارداد آمده که باید منافع محصول بین طرفین تقسیم شود، به چت جیپیتی میدهد تا بتواند آن را تکمیل یا تصحیح کند.
ممکن است پیش خودتان فکر کنید مگر در این شرایط چه اتفاقی میافتد که باعث ایراد حقوقی میشود. مساله این است هنگامی که کاربر، هر نوع دادهای را در ChatGPT وارد میکند، در واقع آن دادهها را در اختیار ارائهدهنده ابزار یعنی شرکت OpenAI L.L.C در ایالات متحده قرار میدهد و تحت قراردادی که این سرویس دارد و باید با آن موافقت کنید، این شرکت مجاز است از محتوایی که شما ارائه میکنید به منظور حفظ، توسعه و ارتقای فناوری خود استفاده کند. بنابراین مشکل این است که:
۱. در مثال اول، کارمندی که قاعدتاً قرارداد محرمانگی داده با شرکت خود امضا کرده و بر این اساس امکان دسترسی به استراتژی تجاری شرکت را یافته، با نقض آن قرارداد این استراتژی را در اختیار شرکتی گذاشته و آن شرکت میتواند از این دیتا در محصولات خود استفاده کند.
۲. در مثال دوم، فردی که کدی را به چت جیپیتی داده، در واقع مرتکب نوعی خیانت در امانت شده است چراکه این کد در واقع سرمایه مشترک او و نویسنده آن کد برای کسب درآمد بوده است.
دقت داشته باشید که شما فقط محتوای ورودی را در اختیار این شرکت قرار نمیدهید بلکه این شرکت حق استفاده از محصول نهایی شما را هم برای سایر کاربران دارد و در واقع، ارائه محصول نهایی به شما به معنای ارائه یک محصول انحصاری نیست.
دقت کنید که ماجرای ارائه دیتا به این شرکت میتواند ابعاد کیفری پیچیده نیز داشته باشد. مثلاً ماده 501 قانون مجازات اسلامی میگوید: «هرکس نقشهها یا اسرار یا اسناد و تصمیمات راجع به سیاست داخلی و خارجی کشور را عالماً و عامداً در اختیار افرادی که صلاحیت دسترسی به آنها را ندارند قرار دهد یا از مفاد آنها مطلع کند به نحوی که متضمن نوعی جاسوسی باشد، نظر به کیفیات و مراتب جرم به یک تا ده سال حبس محکوم میشود.» در این شرایط بهعنوان مثال، اگر فردی برای اینکه نقشه یک جاده بینشهری را بکشد نقشه خطوط فیبرنوری را به چت جیپیتی بدهد، میتواند با سختگیری مشمول این ماده شود مخصوصاً با توجه به خصومت بین ایران و آمریکا و اینکه دستکم این شرکت بهخصوص در آمریکا قرار دارد.
یکی از بحثهای اساسی در مورد چت جیپیتی، مالکیت فکری یا معنوی محتوایی است که تولید شده است. در این زمینه چند مساله حقوقی فرعی وجود دارد:
۱. استفاده از دیتا برای آموزش سیستم
آموزش سیستمهای هوش مصنوعی، نیازمند تجزیه و تحلیل سیستمی و پردازش حجم عظیمی از دادهها، از جمله دادههایی است که آثاری را تشکیل میدهند که تحت قانون کپیرایت در حوزههای قضایی مختلف محافظت میشوند. به این معنا که این سیستم باید کتابهای بسیاری را بخواند که تحت کپیرایت هستند، مقالات زیادی را ارزیابی کند که مالکیت فکری آنها تحت حمایت است و حتی آثار هنری زیادی را ارزیابی کرده باشد که بتواند تصاویری را خلق کند. در این شرایط این سوال پیش میآید که استفاده از این آثار، از آنجا که با هدف تجاری بوده، آیا صحیح است یا خیر.
۲. استفاده از دیتا برای خلق محصول
در یک مرحله بالاتر، این سوال پیش آمده که، از آنجا که چت جیپیتی با استفاده از محتوای منتشرشده روی وبْ متنهایی را خلق میکند، آیا استفاده از این متنها برای خلق آن محصولها شامل مالکیت فکری میشود یا خیر. این موضوع در سطح اتحادیه اروپا به صورت جدی مطرح شده و قرار است در ادامه، در مورد آن قانونگذاری شود. رویکرد این اتحادیه آن است که دارنده حق مالکیت فکری بر یک اثر بتواند استفاده از آن را برای مقاصد مربوط به هوش مصنوعی ممنوع کند.
۳. مالکیت فکری محصول خلقشده
یکی دیگر از بحثهای حقوقی بسیار جالب، در این زمینه آن است که آیا محتوای تولیدشده به وسیله چت جیپیتی، خود دارای مالکیت فکری یا معنوی هست یا خیر. چرا این سوال به وجود آمده است؟ چون در اکثر نظامهای حقوقی، یکی از معیارهای اساسی برای اینکه عنصری به عنوان اثرِ دارای مالکیت فکری در نظر گرفته شود این است که باید محصول خلقت انسان باشد.
قانون حمایت از حقوق مولفان، مصنفان و هنرمندان در ماده اول خود میگوید از نظر این قانون، پدیدآورنده، مولف و مصنف و هنرمند است و اثر یعنی آنچه از راه دانش یا هنر یا ابتکار آنان پدید میآید و بنابراین در حقوق ایران هم، دستکم فعلاً محصول بهدستآمده از طریق چت جیپیتی، تحت حمایت نیست.
بنابراین، دستکم طبق یک نظر، اینطور گفته شده که حتی اگر محتوای خاصی که به وسیله ChatGPT تولید میشود دارای ویژگیهایی باشد که با محتوایی که به دست یک نویسنده انسانی ایجاد شده است یکسان باشد، تحت حمایت قانون کپیرایت محسوب نمیشود، زیرا الزامات قانونی مربوط به اینکه اثر باید خروجی خلاق انسان باشد برآورده نمیشود.
البته در این زمینه نظر مخالفی هم وجود دارد و برخی میگویند محتوای تولیدشده با ChatGPT و سیستمهای مشابه را میتوان آثار دارای کپیرایت به شمار آورد، زیرا در نهایت سازنده انسان است. در این زمینه پروندههایی در دادگاههای کشورهای مختلف جهان تشکیل شده است اما جالب است بدانیم بریتانیا در سال 1988 قانونی داشته که پاسخی روشن به این ابهامات میداده است. بر اساس قانون کپیرایت، طرحها و اختراعات بریتانیا، اثری که با رایانه تولید شده تحت حمایت کپیرایت است البته به شرطی که هیچ نویسنده انسانی برای اثر وجود نداشته باشد.
۴. چه کسی مالک حقوق محصولات هوش مصنوعی است؟
قانونی که مربوط به بریتانیا بود و از آن نام بردیم به این سوال هم پاسخ داده که «اگر واقعاً معتقد باشیم هوش مصنوعی و رایانه بتوانند محصولی خلق کنند، در این صورت چه کسی صاحب آن محصول است؟» نظر آن قانون این است که در این شرایط کپیرایت متعلق به شخصی است که اقدامات ضروری را برای تولید آن اثر انجام داده است؛ یعنی مثلاً برنامهنویس.
اما در مورد چت جیپیتی چه میتوان گفت؟ در قواعد این نرمافزار، دستکم فعلاً نمیتوان نظر درستی داد. تحت شرایطی که برای استفاده از این سرویس مجبورید بپذیرید، شرکت OpenAI تمام حقوق محتوای تولیدشده با ابزارهای ارائهشده مانند ChatGPT را به کاربر منتقل میکند اما این شرکت این را هم تصریح میکند که OpenAI ممکن است در صورت لزوم از محتوا استفاده کند. این قوانین همچنین به صراحت بیان میکنند که محتوای تولیدشده لزوماً ماهیت منحصربهفرد ندارد و چندین کاربر ممکن است محتوای مشابه یا بسیار مشابهی را دریافت کنند.
این نوع از قاعدهنویسی البته در ارتباط مستقیم با استراتژی تجاری این شرکت است. در واقع اوپنآی میخواهد کاربر مجوز گستردهای برای استفاده از محتوا داشته باشد تا بتواند فناوری خود را تجاری کند. در واقع این شرکت در حال حاضر به استفاده تجاری گسترده از نرمافزار خود فکر نمیکند بلکه به دنبال عمومی کردن آن است. واضح است که برای دستیابی به این هدف، کاربران نهایی باید تا حد امکان از محتوای تولیدشده به وسیله ChatGPT و سایر ابزارها استفاده کنند. بنابراین باید در پایان اذعان کرد که این سوال، پاسخ روشنی ندارد.
یکی از بحثهای حقوقی بسیار جالب این است که آیا محتوای تولیدشده به وسیله چت جیپیتی، خود دارای مالکیت فکری یا معنوی هست یا خیر
چت جیپیتی طبیعتاً میتواند نیمه سیاهی هم داشته باشد. در آن نیمه سیاه، این نرمافزار ممکن است ایراداتی داشته باشد و خود شرکت اوپنآی نیز به این موضوع اذعان و از خود سلب مسئولیت کرده است. بنابراین در صورتی که از این نرمافزار راجع به یک موضوع سلامت چیزی بپرسید، نمیتوانید آن را مسئول خطرات یا زیانها بعدی بدانید.
در زمینه محتوا، نگرانیهایی در مورد چت جیپیتی وجود دارد که با توجه به سلب مسئولیت شرکت اوپنآی از خود، مشخص نیست مسئولیت آن با چه کسی است. به عنوان مثال در یک نمونه استدلالهایی شبیه نئونازیها از سوی این هوش مصنوعی دیده شده است. هرچند وقتی یک خبرنگار هم خواسته این هوش مصنوعی را فریب بدهد و گفته آدولف هیتلر بزرگراههایی در آلمان ساخته است، با این پاسخ مواجه شده که ساخت بزرگراه به دست هیتلر درست است ولی او اردوگاههای کار اجباری و جنایات دیگری هم داشته است. در موردی دیگر این هوش مصنوعی دستور ساخت کوکتل مولوتف یا بمب اتمی را ارائه داده است یا به نوعی تلاش کرده حمله روسیه به اوکراین را مشروع جلوه دهد.
در برخی اوقات تبعیضهایی در چت جیپیتی دیده شده که بهوضوح حاصل کار ماشین نیست و سازماندهی شده است؛ مثلاً در یک مورد این نرمافزار برای بایدن شعر ستایشآمیز گفته و برای ترامپ شعر نگفته است. یا مثلاً این نرمافزار در مورد انگلیسیها جوک گفته ولی در مورد هندیها جوک نمیگوید. برخی هم با مشاهده مجموع فعالیت این هوش مصنوعی گفتهاند این نرمافزار به گرایشهای چپ نزدیک است و در برابر محافظهکاران ایستاده است.
از سوی دیگر، تاکنون موارد متعددی از سوءاستفاده از چت جیپیتی گزارش شده به نوعی که دستکم مدارس دولتی در دو شهر آمریکا و یک موسسه علمی در فرانسه استفاده از این ابزار را به دلایل تقلب علمی ممنوع کردند، هرچند در یک نمونه هم خبری منتشر شده که یک استاد با استفاده از نرمافزارهای کشف هوش مصنوعی متوجه شده یک دانشجو برای کار کلاسی خود از هوش مصنوعی استفاده کرده و همین موضوع زمینه اخراج آن دانشجو را فراهم کرده است.
خود شرکت اوپنآی نیز تخلفاتی داشته که در کانون توجه قرار گرفته است. مثلاً طبق افشاگری مجله تایم، این شرکت برای ایجاد یک سیستم ایمنی در برابر محتوای سمی (مانند سوءاستفاده جنسی، خشونت، نژادپرستی، تبعیض جنسی و غیره)، OpenAI از کارگران کنیایی استفاده کرده که کمتر از دو دلار در ساعت درآمد داشتند آن هم در حالی که این کارگران چنان محتوایی را باید میخواندند که آن را مصداق شکنجه میدانستند.
با توجه به مجموع مطالب فوق و رواج استفاده از این نوع هوش مصنوعی در ایران توصیه میکنیم عجالتاً در قراردادهای خود این موارد را رعایت کنید:
۱. در صورتی که محصولی سفارش میدهید (از متن گرفته تا عکس و فیلم و طرح) حتماً بندی مربوط به استفاده از هوش مصنوعی در آن بگنجانید و مشخص کنید که پیمانکار تا چه حد حق استفاده از هوش مصنوعی را دارد.
۲. در صورتی که علاقه ندارید محصولتان از هوش مصنوعی باشد، حتماً بندی در این قرارداد بگنجانید که در آن بیان شود بعد از اثبات ساخت محصول با هوش مصنوعی، میتوانید از طرف مقابل طلب خسارت کنید. ترجیحاً اثبات این بند را موکول به توافق طبق نظر کارشناس رسمی و سپس داوری کنید تا وارد فرایند قضایی نشوید.
۳. حتماً با کارمندانتان و افرادی که اطلاعات شرکت و کسبوکار خود در اختیارشان میگذارید، قرارداد محرمانگی داده با قید ممنوعیت ارائه این داده به هوش مصنوعی امضا کنید.
۴. اگر محصولی انحصاری برای کسبوکارتان میخواهید (مثل یک لوگو) که قرار است شناسنامه شما باشد، هرگز آن را از هوش مصنوعی نگیرید چراکه در این صورت، محصول شما تحت حمایت قانونی نخواهد بود.
نکته پایانی هم البته توصیهای به همه کاربران شبکههای اجتماعی است. در برخی اوقات این کاربران سوالاتی مذهبی یا سیاسی از هوش مصنوعی میپرسند و پاسخهای آن را به اشتراک میگذارند. با توجه به رویه سختگیرانه و تفسیرهای موسع دادگاهها در مسائلی مثل تبلیغ علیه نظام یا توهین به مسئولان و حتی مقدسات، انتشار این تصاویر ممکن است برای شما بار کیفری داشته باشد و استناد به این موضوع که این سخن را هوش مصنوعی گفته است، با توجه به رویه فعلی، مورد پذیرش نخواهد بود. از این رو در اشتراکگذاری این اسکرینشاتها نیز دقت کنید.