این سخنگوی در تلاش است تا به کسانی که نگران هستند اطمینان دهد که مایکروسافت از معیارهای استاندارد صنعت حریم خصوصی کاربران مانند “نام مستعار، رمزگذاری در حالت استراحت، مدیریت دسترسی ایمن و تایید شده به داده ها، و روش های نگهداری داده ها” استفاده می کند.
شرکتهای فناوری بهتر است توجه بیشتری داشته باشند تا اطمینان حاصل کنند که دادههای شخصی ما تا حد امکان ایمن هستند – یا اعتماد مشتریان خود را از دست بدهند و به طور بالقوه جاهطلبیهای نوپای هوش مصنوعی آنها را از بین ببرند.
یکی از سخنگویان مایکروسافت توضیح داد که هم از تلاشهای بازبینی خودکار (چون دادههای زیادی برای بررسی وجود دارد) و هم از بازبینهای دستی استفاده میکند. در ادامه بیان می کند که این استاندارد برای موتورهای جستجو است و همچنین در بیانیه حریم خصوصی مایکروسافت گنجانده شده است.
اخیراً، شرکت پشتیبان اسنپ چت اعلام کرد که در حال معرفی یک ربات چت مجهز به ChatGPT است که شبیه فرمت چت پیام رسان قبلا آشنای آن است. به کاربران هشدار داده است که اطلاعات حساس شخصی را احتمالاً به دلایل مشابه ارسال نکنند.
این نگرانیها هنگام در نظر گرفتن استفاده از رباتهای مجهز به ChatGPT و ChatGPT توسط افرادی که در شرکتهایی با اطلاعات حساس و محرمانه خود کار میکنند، چند برابر میشود، که بسیاری از آنها به کارمندان هشدار دادهاند که اطلاعات محرمانه شرکت را در این چتباتها ارسال نکنند. برخی از شرکت ها مانند جی پی مورگان و آمازون (در برگه جدید باز می شود)، استفاده از آنها را در محل کار به طور کلی محدود یا ممنوع کرده اند.
موتور جستجوی Bing مایکروسافت که به تازگی به ChatGPT OpenAI مجهز شده است و در حال حاضر در حال راه اندازی است، نگرانی های خاص خود را به همراه داشته است، زیرا مایکروسافت بهترین سابقه را در مورد احترام به حریم خصوصی مشتریان خود نداشته است.
جنیفر کینگ، مدیر حریم خصوصی مصرف کنندگان در مرکز اینترنت و جامعه دانشکده حقوق استنفورد، حدس زده می شود که این تا حدی به دلیل موقعیت دیرینه مایکروسافت است هم در بازار مربوطه و هم در روابط طولانی مدت با دولت ها به دلیل میراث آن. این شرکت در برخورد با تنظیمکنندهها تجربه بیشتری دارد، بنابراین ممکن است از همان سطح بررسی دقیق رقبای خود اجتناب کند.
هجوم داده ها
این شرکت ادعا میکند که اطلاعات شخصی ارسالی را حذف میکند، متنهای چت کاربران فقط برای برخی بازبینها قابل دسترسی است و این تلاشها از کاربران محافظت میکند حتی زمانی که مکالمات آنها با ربات چت در حال بررسی است.
رویای هوش مصنوعی وارد زندگی روزمره ما شده است و در نتیجه بحث های اخلاقی در مورد هوش مصنوعی افزایش یافته است، به ویژه در مورد اینکه این سرویس های هوش مصنوعی چه مقدار داده از کاربران جمع آوری می کنند. به هر حال، جایی که ذخیره انبوه اطلاعات احتمالاً حساس وجود دارد، نگرانیهایی در مورد امنیت سایبری و حفظ حریم خصوصی وجود دارد.
مایکروسافت و همچنین سایر شرکتها به دلیل محبوبیت رباتهای چت مانند ChatGPT، اکنون مجبورند به هجوم گسترده دادههای چت کاربر واکنش نشان دهند. بر اساس تلگراف، مایکروسافت بازبینانی دارد که ارسالی کاربران را تجزیه و تحلیل می کنند (در برگه جدید باز می شود) برای محدود کردن آسیب و پاسخ به ورودیهای بالقوه خطرناک کاربر با بررسی گزارشهای مکالمه کاربر با ربات چت و اقدام به تعدیل «رفتار نامناسب».
مایکروسافت تنها شرکتی نیست که در مورد نحوه جمع آوری و مدیریت داده های کاربران در مورد چت ربات های هوش مصنوعی تحت نظارت است. OpenAI، شرکتی که ChatGPT را ایجاد کرد، همچنین فاش کرد که مکالمات کاربران را بررسی می کند.
مایکروسافت گهگاه در مورد مدیریت و دسترسی به دادههای کاربر با چالشهایی مواجه شده است، اگرچه به طور قابل توجهی نسبت به شرکتهای همعصر خود مانند اپل، گوگل و فیسبوک کمتر است، حتی با وجود اینکه به مقدار زیادی از اطلاعات کاربر میپردازد – از جمله زمانی که تبلیغات هدفمند میفروشد.
این مورد توسط برخی نهادها و سازمان های نظارتی دولتی مورد هدف قرار گرفته است، مانند زمانی که فرانسه از مایکروسافت خواست ردیابی کاربران از طریق ویندوز 10 را متوقف کند و این شرکت با مجموعه ای از اقدامات جامع پاسخ داد.
داده های شخصی کاربر به طور کلی یک مسئله کلیدی در فناوری بوده و همچنان وجود دارد. استفاده نادرست از داده ها، یا حتی استفاده مخرب از داده ها، می تواند عواقب بدی هم برای افراد و هم برای سازمان ها داشته باشد. با هر معرفی یک فناوری جدید، این خطرات افزایش مییابد – اما پاداش بالقوه نیز افزایش مییابد.
بهعلاوه، بازبینها فقط میتوانند دادههای کاربر را بر اساس «فقط یک نیاز تجاری تأیید شده و نه شخص ثالث» مشاهده کنند. مایکروسافت از آن زمان بیانیه حریم خصوصی خود را بهروزرسانی کرده است تا موارد فوق را خلاصه و روشن کند – اطلاعات کاربر در حال جمعآوری است و کارمندان انسانی مایکروسافت ممکن است بتوانند آن را ببینند.