OpenAI запрещает сотрудникам обнародовать связанные с ИИ риски

Работники компании анонимно рассказали властям США об угрозах уголовным преследованием и штрафами за разглашение подобной информации.
OpenAI запрещает сотрудникам обнародовать связанные с ИИ риски
Rod Lamkey/CNP/Legion Media

В трудовых договорах, которые OpenAI заключает со своими сотрудниками, незаконно запрещается рассказывать федеральным регуляторам о потенциальных рисках, связанных с искусственным интеллектом (ИИ). Об этом сообщает The Washington Post.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Газета изучила жалобу в Комиссию по ценным бумагами и биржам США (SEC), анонимно поданную несколькими сотрудниками разработчика ChatGPT. В письме отмечается, что компания вводит чрезмерные ограничения для новых и увольняющихся работников. За их нарушение OpenAI угрожает уголовным преследованием и штрафами.

«Я не думаю, что компании, занимающиеся ИИ, смогут создавать безопасные и полезные для общества технологии, если будут таким образом защищать себя от внимания и инакомыслия», — рассказал один из авторов жалобы.

Как указывает газета, в SEC уже отреагировали на письмо сотрудников OpenAI, однако неизвестно, начал ли регулятор расследование.

При этом в самой компании заявили, что уважают право сотрудников на раскрытие информации о нарушениях. «Мы считаем, что тщательное обсуждение этой технологии [ИИ] имеет важное значение, и уже внесли значительные изменения в процесс увольнения и исключили из него положения о неразглашении [такой информации]», — добавили представители компании.

Вы пользуетесь ChatGPT или другими продуктами Open AI?
Да
Нет