OpenAI запрещает сотрудникам обнародовать связанные с ИИ риски
В трудовых договорах, которые OpenAI заключает со своими сотрудниками, незаконно запрещается рассказывать федеральным регуляторам о потенциальных рисках, связанных с искусственным интеллектом (ИИ). Об этом сообщает The Washington Post.
Газета изучила жалобу в Комиссию по ценным бумагами и биржам США (SEC), анонимно поданную несколькими сотрудниками разработчика ChatGPT. В письме отмечается, что компания вводит чрезмерные ограничения для новых и увольняющихся работников. За их нарушение OpenAI угрожает уголовным преследованием и штрафами.
«Я не думаю, что компании, занимающиеся ИИ, смогут создавать безопасные и полезные для общества технологии, если будут таким образом защищать себя от внимания и инакомыслия», — рассказал один из авторов жалобы.
Как указывает газета, в SEC уже отреагировали на письмо сотрудников OpenAI, однако неизвестно, начал ли регулятор расследование.
При этом в самой компании заявили, что уважают право сотрудников на раскрытие информации о нарушениях. «Мы считаем, что тщательное обсуждение этой технологии [ИИ] имеет важное значение, и уже внесли значительные изменения в процесс увольнения и исключили из него положения о неразглашении [такой информации]», — добавили представители компании.