Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
، مقالات،

تحذر iHeartMedia الموظفين من استخدام ChatGPT


ظهرت هذه القصة لأول مرة في Hot Pod Insider ، نشرة The Verge الإخبارية حول البث الصوتي وصناعة الصوت. اشتراك هنا للمزيد من.

تنضم iHeartMedia إلى شركات مثل Apple و Spotify و Verizon في تقييد استخدام الموظفين لبرنامج OpenAI’s ChatGPT – بالإضافة إلى حظر استخدام نموذج الذكاء الاصطناعي على أجهزة الشركة. وفقًا لمذكرة داخلية حصلت عليها قرنة ساخنة، أرسل بوب بيتمان ، الرئيس التنفيذي لشركة iHeartMedia والمدير المالي ريتش بريسلير ، رسالة بريد إلكتروني أمس إلى موظفي الشركة يوجهونهم إلى عدم استخدام ChatGPT لمنع تسرب البيانات لمعلومات ملكية iHeartMedia. تم الإبلاغ عن الخبر لأول مرة من قبل RBR.

كتب القادة أنه “بقدر ما هو مغري” ، لم يكن على موظفي iHeartMedia استخدام ChatGPT أو أدوات الذكاء الاصطناعي المماثلة على أجهزة الشركة أو القيام بأعمال الشركة – أو استخدام أي مستندات للشركة على مثل هذه الأنظمة الأساسية. كان هذا من أجل حماية الملكية الفكرية لـ iHeart وغيرها من المعلومات السرية ، بالإضافة إلى تلك الخاصة بشركائها.

كان مصدر القلق الرئيسي هو فرصة قيام ChatGPT بتسريب معلومات الملكية التي ستكون ذات قيمة لمنافسي iHeartMedia. بينما يتم تدريب روبوت الدردشة الخاص بـ OpenAI بشكل أساسي على مجموعة من البيانات (بما في ذلك مواقع الويب ومقالات ويكيبيديا وسجلات أخرى عبر الإنترنت) تنتهي في عام 2021 ، تقوم الشركة أيضًا بتخزين محادثاتك افتراضيًا واستخدامها لتدريب أنظمة الذكاء الاصطناعي الخاصة بها.

على الرغم من حظر ChatGPT ، فقد تبنت iHeartMedia الذكاء الاصطناعي بقوة في الماضي (قامت هيئة البث ذات مرة بطرح منسقي أغاني AI – مما أدى إلى تسريح العمال). تعمل الشركة حاليًا على مجموعة أدوات الذكاء الاصطناعي الخاصة بها ليتم نشرها في جميع أنحاء الشركة.

“ستقوم بتدريب الذكاء الاصطناعي بشكل فعال بحيث يمكن لأي شخص – حتى منافسينا – استخدامه.”

“على الرغم من أن الذكاء الاصطناعي ، بما في ذلك ChatGPT وأنظمة الذكاء الاصطناعي الأخرى” للمحادثة “، يمكن أن تكون مفيدة للغاية وتحويلية حقًا ، فإننا نريد أن نكون أذكياء بشأن كيفية تنفيذنا لهذه الأدوات لحماية أنفسنا وشركائنا ومعلومات شركتنا وبيانات المستخدم الخاصة بنا. على سبيل المثال ، إذا كنت تقوم بتحميل معلومات iHeart إلى نظام أساسي للذكاء الاصطناعي (مثل ChatGPT) ، فسوف يقوم بتدريب هذا الذكاء الاصطناعي بشكل فعال حتى يتمكن أي شخص – حتى منافسينا – من استخدامه ، بما في ذلك جميع المعلومات التنافسية الخاصة بنا “. في المذكرة.

تخطط الشركة لطرح مجموعة من أدوات الذكاء الاصطناعي “الخاصة بـ iHeart” والتي سيتم تصميمها للاستخدام داخليًا ، على عكس السوق العامة. ستشمل أدوات الذكاء الاصطناعي ضمانات من شأنها منع تسريب المعلومات السرية الخاصة بـ iHeart وعنوان IP للجمهور ، وفقًا للمذكرة. ولكن حتى يحين ذلك الوقت ، يتعين على الموظفين الذين يرغبون في استشارة ChatGPT أو أداة أخرى تابعة لجهة خارجية للذكاء الاصطناعي أن يمروا بالعديد من الموافقات – بالإضافة إلى الحصول على موافقة من فرق iHeart القانونية وفرق تكنولوجيا المعلومات.

“في غضون ذلك ، لضمان أمننا حول الذكاء الاصطناعي ، ولضمان عدم إلحاق الضرر بعلاماتنا التجارية أو العلامات التجارية لعملائنا ، أو الكشف عن بيانات حساسة عن غير قصد ، أو عدم مشاركة أو تطوير أو عمل مشروع محدد يتضمن ChatGPT أو تقنية ذكاء اصطناعي أخرى مسموح به بدون توجيه صريح من قائد فريقك. ستتطلب جميع المشاريع تقييمًا لتأثير المشروع وقيمته ، وخطة للرصد والتقييم وموافقة مسبقة موثقة من الشؤون القانونية وتكنولوجيا المعلومات “، كتب بيتمان وبريسلر.

تنضم iHeartMedia إلى قائمة متزايدة من الشركات التي تقيد أو تحظر بشكل كبير استخدام ChatGPT وأدوات الذكاء الاصطناعي الأخرى من قبل الموظفين – ويرجع ذلك إلى حد كبير إلى مخاوف من أن chatbot قد يسرب معلومات سرية. قامت شركات التكنولوجيا الكبرى مثل Samsung و Apple و Verizon بحظر موقع الويب أو جعله غير ممكن الوصول إليه من أنظمة الشركات بسبب مخاوف من إمكانية تسريب IP. على غرار iHeart ، تعمل Apple على أدوات الذكاء الاصطناعي الخاصة بها وهي حذرة من أي بيانات ملكية تهبط في أيدي المنافسين.

تعمل شركة OpenAI على معالجة هذه المخاوف. يمكنك الآن إلغاء الاشتراك في مشاركة محفوظات الدردشة الخاصة بك مع ChatGPT ، وتعمل OpenAI على مجموعة من الأدوات التي تلبي احتياجات الشركات على وجه التحديد ولن تتدرب على بياناتها افتراضيًا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى