DeepSeek جعل OpenAI تعزز الأمن المؤسسي

robot
إنشاء الملخص قيد التقدم

وسائل الإعلام: DeepSeek أجبرت OpenAI على تعزيز الأمن المؤسسي

أعادت OpenAI تقييم نظامها الأمني لحماية الملكية الفكرية من التجسس الصناعي وسط مخاوف من سرقة المنافسين الصينيين. وذكرت ذلك صحيفة Financial Times نقلاً عن مصادر.

على مدار الأشهر القليلة الماضية، قامت الشركة بإدخال إجراءات أكثر صرامة للتحكم في المعلومات السرية وزيادة فحص الموظفين. وقد تسارعت هذه المبادرة بعد إصدار نموذج منافس من قبل شركة الذكاء الاصطناعي الصينية DeepSeek.

تدعي OpenAI أن شركة من الصين قامت بنسخ تطويراتها بشكل غير قانوني، باستخدام طريقة تسمى "التقطير" - تدريب الشبكة العصبية على أساس إجابات من LLM أخرى.

في FT أشاروا إلى أن الحادث أجبر شركة سام ألتمان على التصرف "بشكل أكثر صرامة". الشركة "تتوسع بشكل عدواني" في عدد موظفيها، بما في ذلك فرق الأمن السيبراني.

بدأت الشركة في تنفيذ سياسات صارمة في مكاتبها في سان فرانسيسكو منذ الصيف الماضي بهدف تقييد وصول الموظفين إلى المعلومات الحساسة.

تحتفظ الشركة الآن بجزء كبير من تقنياتها المسجلة في بيئات معزولة - أجهزة الكمبيوتر مفصولة عن الإنترنت وغير مرتبطة بشبكات أخرى. بالإضافة إلى ذلك، تُستخدم فحوصات بيومترية في مكاتب OpenAI: يمكن للموظفين الوصول إلى غرف معينة فقط بعد مسح بصمات الأصابع.

قامت OpenAI بتعزيز الأمن الفيزيائي لمراكز البيانات. أصبحت الشركة واحدة من العديد في وادي السيليكون الذين قاموا بتشديد فحص الموظفين والمرشحين في ظل زيادة تهديد التجسس من قبل الصين.

نذكّر أنه في يونيو 2024، انضم الجنرال المتقاعد من جيش الولايات المتحدة بول ناكاسوني إلى مجلس الإدارة ولجنة الأمن والحماية في OpenAI.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت