انتهای پیام
چین به دنبال کنترل نظرات هوش مصنوعی درباره سیاست
شرکتهای فناوری چینی، از مهارتهای فنی برای توسعه مدلهای هوش مصنوعی ساخته شده خود هستند، اما محدودیتها در مورد آنچه این مدلها میتوانند بیان کنند، احتمالاً توسعه میکند و میزان توسعه فناوری را در کشور محدود میکند.
این قوانین میتوانند کار شرکتهای چینی را برای رسیدن به رقبای آمریکایی خود مانند مایکروسافت، OpenAI، گوگل و فیسبوک انجام دهند که در رقابتهای هوش مصنوعی پیشرو، سخت میشوند.
به گزارش ایسنا و به نقل از اینسایدر، خلاصهای از مدلهای هوش مصنوعی با خودکار کردن برخی وظایف و ارائه دروغهای قانعکننده در موضوعات مهم شروع به ایجاد اختلال در تجارت و جامعه غربی است.
ابزار هوش مصنوعی نمیدانند که چرا مدلها ویژگیهایی را تولید میکنند. مدلهای تصویری مشابه میتوانند به سرعت تصاویر از افراد مشهور در حال انجام کارهای غیرعادی تولید کنند که در واقعیت انجام نشدهاند. یکی از نمونههای معروف آن تصویری است که نشان میداد پاپ فرانسه یک کت بزرگ پفی پوشیده بود و برخی را فریب داد.
این فناوری غیرقابل پیش بینی میتواند برای رهبران چین باشد که میتوانند روایتهای سیاسی را کنترل کنند، نگرانکننده خواهند بود.
شرکتها باید به قوانین سانسور حزب کمونیست چین توجه کنند، قوانینی که درباره تاریخهای حساس خاص و انتقاد از رهبران این کشور را ممنوع میکند. نیویورک تایمز گزارش داد، بر اساس تعریفهای پیشنهادی، تولید شده توسط این مدلهای مصنوعی باید منعکسکننده «ارزشهای اصلی سوسیالیستی» باشد و از اطلاعاتی که «قدرت دولتی» یا وحدت ملی را تضعیف میکند، نکند.
چین میخواهد نظرات هوش مصنوعی در حزب کمونیست را کنترل کند تا این فناوری تنها «ارزشهای اصلی سوسیالیستی» را منعکس کند.
این قوانینی که از سوی اداره فضای سایبری چین ارائه شده است، ساخت مصنوعی مصنوعی است که نوعی فناوری است و به چتجیپیتی (ChatGPT) و سایر محصولات نوپایی که در ماههای اخیر دنیای غرب را در نوردیدهاند، پوشش میدهد.
چت جیپیتی به طور رسمی در چین در عرضه محصولات گوگل و فیس بوک در چین نیز ممنوع است، شرکتی است که در این کشور شرکت میکند.
این روزنامه افزوده، شرکتها همچنین باید مطمئن شوند که چتباتهای آنها متن و تصاویر حقیقتی میسازند و به مالکیت معنوی احترام میگذارند و ملزم به الگوریتمهای خود در تنظیمکنندهها خواهند بود.
نیویورک تایمز روز دوشنبه گزارش داد که حزب حاکم کمونیست چین با مجموعهای از قوانین محدودکننده این باتلاق فناوری است.
این موضوع ممکن است وجود داشته باشد که مدلهای زبانی بزرگ، مانند چتجیپیتی، میتوانند اطلاعات جعلی را برای درخواستهای کاربر ایجاد کنند. دانشگاهیان در مورد احتمال ارائه اطلاعات نادرست از این پلتفرمها هشدار دادهاند. به عنوان مثال، سامانتا دلویا(Samantha Delouya) از اینسایدر از این ابزار زبانی خواست تا یک خبر بنویسد و نقل قولهای جعلی کارلوس تاوارس(Carlos Tavares)، مدیر عامل صنعت خودروسازی را به زبان بیاورد.