کارمندان سامسونگ علاوه بر ارائه کد منبع پایگاه داده، ویدیوی ضبطشدهای از یک جلسه را با چتبات ChatGPT به اشتراک گذاشتهاند. بلافاصله پس از اینکه بخش نیمههادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان خود داد، کارمندان غول فناوری حداقل در سه نوبت اطلاعات محرمانهای را به آن لو دادند. گفته میشود یکی از کارمندان از چتبات OpenAI درخواست کرده است تا کد منبع پایگاه داده حساسی را از نظر خطا بررسی کند، کارمند دیگری بهینهسازی کد را درخواست کرده و نفر سوم جلسه ضبطشدهای را برای ChatGPT ارسال کرده است تا آن را به یک یادداشت تبدیل کند.
علاوهبراین، گفته شده که سامسونگ با محدودکردن طول دستورات ChatGPT به یک کیلوبایت یا ۱۰۲۴ کاراکتر، تلاش کرده است تا از بروز مشکلات مشابه در آینده جلوگیری کند. همچنین این شرکت ظاهراً درحال بررسی سه کارمند اشارهشده و ساخت چتبات اختصاصی خود برای جلوگیری از حوادث مشابه است.
در سیاست مربوط به دادههای ChatGPT نوشته شده که این چتبات از دستورات کاربران برای آموزش خود استفاده میکند. مالک این ابزار، یعنی OpenAI نیز از کاربران درخواست کرده است تا اطلاعات محرمانه را با آن به اشتراک نگذارند؛ زیرا «نمیتواند درخواستهای خاصی را از تاریخچه شما حذف کند». تنها راه حذفکردن اطلاعات شخصی از دادههای ChatGPT، حذف حساب کاربری است که میتواند چهار هفته طول بکشد.
اشتباه کارمندان سامسونگ مثال دیگری است که نشان میدهد هنگام استفاده از چتباتهای هوش مصنوعی نیز مانند تمام فعالیتهای آنلاین خود، باید احتیاط کرد.
اخیراً درباره چتبات OpenAI گفته شده بود که ChatGPT ظاهراً درحال مسدودکردن شمارههای کشورهای آسیایی است و به معرفی ساعتی پرداخته بودیم که با کمک آن، زمان را بهصورت شعر بیان میکند. همچنین استفاده از این ابزار بهدلیل نگرانیهای مربوط به حریم خصوصی، در ایتالیا ممنوع شده بود.