DeepSeek заставил OpenAI усилить корпоративную безопасность

robot
Генерация тезисов в процессе

СМИ: DeepSeek заставил OpenAI усилить корпоративную безопасность

OpenAI пересмотрела свою систему безопасности для защиты интеллектуальной собственности от корпоративного шпионажа на фоне опасений касательно кражи со стороны китайских конкурентов. Об этом пишет Financial Times со ссылкой на источники

За последние месяцы в компании ввели более строгие меры по контролю над конфиденциальной информацией и усилили проверку сотрудников. Инициатива ускорилась после выпуска конкурирующей модели китайским ИИ-стартапом DeepSeek

OpenAI утверждает, что фирма из КНР неправомерно скопировала ее разработки, используя метод под названием «дистилляция» — обучение нейросети на базе ответов от другой LLM.

В FT отметили, что инцидент заставил стартап Сэма Альтмана действовать «гораздо строже». Компания «агрессивно» расширяет свой штат специалистов, включая команды по кибербезопасности.

Строгие политики фирма начала внедрять в офисах в Сан-Франциско еще прошлым летом с целью ограничить доступ сотрудников к критически важной информации

Компания теперь хранит значительную часть своих запатентованных технологий в изолированных средах — компьютеры отключены от интернета и не связаны с другими сетями. Кроме того, в офисах OpenAI используются биометрические проверки: сотрудники могут получить доступ к определенным помещениям только после сканирования отпечатков пальцев.

OpenAI усилила физическую охрану дата-центров. Компания стала одной из многих в Кремниевой долине, которые ужесточили проверку сотрудников и кандидатов на фоне возросшей угрозы шпионажа со стороны Китая

Напомним, в июне 2024 года генерал армии США в отставке Пол Накасоне вошел в совет директоров и Комитет по безопасности и защите OpenAI.

This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить