OpenAI переглянула свої внутрішні заходи безпеки з метою захисту інтелектуальної власності від потенційного шпигунства з боку китайських конкурентів, повідомляє Financial Times, посилаючись на кілька джерел. За словами співрозмовників журналу, оновлення включають пожорсткіший контроль над конфіденційною інформацією та посилену перевірку персоналу

Американська компанія OpenAI, яка стоїть за ChatGPT, значно посилила внутрішню безпеку після того, як у січні 2025 року китайський стартап DeepSeek представив власну ІІ-модель. В OpenAI підозрюють, що китайці використали їхні напрацювання без дозволу, фактично скопіювавши ключові елементи.
З того часу компанія почала активно впроваджувати нові заходи безпеки, включно з посиленням політик доступу та розширенням команди кіберзахисту. Як повідомляє Financial Times, в OpenAI тепер обмежили коло працівників, які мають доступ до алгоритмів і нових технологій, що перебувають у стадії розробки.
В офісах OpenAI у Сан-Франциско діють суворіші правила: більшість інновацій зберігаються в ізольованих середовищах, доступ до деяких приміщень можливий лише після біометричної ідентифікації — наприклад, через сканування відбитків пальців. Будь-яке підключення пристроїв до Інтернету можливе лише за прямим дозволом керівництва.
Крім того, компанія підвищила рівень фізичної безпеки в своїх дата-центрах та впровадила ретельну перевірку кандидатів на роботу. Це стало відповіддю на зростаючу стурбованість американської влади щодо спроб іноземного шпигунства — особливо з боку Китаю. У 2024 році уряд США вже застерігав технологічні компанії про активізацію таких загроз.
Цікаво, що ще торік команда, яка працювала над моделлю o1, отримала внутрішню інструкцію: обговорювати проєкт можна лише з тими колегами, хто офіційно до нього залучений. А восени 2024-го OpenAI найняла нового директора з інформаційної безпеки — Дейна Стакі, який раніше займав аналогічну посаду в Palantir.
Залишити коментар