Safe Superintelligence Inc. – компания в области ИИ от сооснователя OpenAI Ильи Суцкевера

С начала 2024 года не прекращается череда новостей об искусственном интеллекте, машинном обучении, внедрении ИИ в повседневную жизнь человека, благодаря чему делая её лучше. Однако в этом вопросе существует большое количество непопулярных моментов, в том числе опасения, что искусственный интеллект – это всё-таки машина, которая может обрести собственный разум и выйти из-под контроля.

Для предотвращения подобного сценария компании, занимающиеся ИИ, разрабатывают различные протоколы безопасности. И 19-го июня 2024 года один из сооснователей OpenAI, Илья Суцкевер, объявил о создании компании Safe Superintelligence Inc., которая будет заниматься одним единственным продуктом – безопасным суперразумом искусственного интеллекта. В этой статье редакция CyberMeta собрала всю информацию об основателе Safe Superintelligence Inc. Илье Суцкевере и компании в целом.

Илья Суцкевер
Илья Суцкевер

Илья Суцкевер родился в СССР в 1986 году, в 1991 году его семья эмигрировала в Израиль, а в 2002 году переехала в Канаду. После окончания Университета Торонто Суцкевер занимался разработками в сфере искусственного интеллекта и машинного обучения. В 2015 году он стал одним из сооснователей OpenAI. Летом 2023 года возглавил отдел в OpenAI, который занимался безопасностью и управляемостью искусственного интеллекта, чей разум должен превосходить возможности человеческого мозга.

Его основным приоритетом в OpenAI была безопасность искусственного интеллекта. Этот вопрос актуален, так как последние месяцы в мире появляется всё больше вопросов, насколько человек может контролировать машинный интеллект, ведь последний может выйти из-под контроля и обрести собственный разум.

15-го мая 2024 года Илья Суцкевер покинул OpenAI из-за разногласий с главой компании Сэмом Альтманом, сообщив, что в ближайшее время объявит о своём новом проекте.

Предполагаемая визуализация ИИ
Предполагаемая визуализация ИИ

Safe Superintelligence Inc. – новая компания, основанная Ильёй Суцкевером. Основной целью компания ставит создание суперразума, который будет защищён от «неправильного» воздействия и использования. Safe Superintelligence – это термин, который обозначает безопасный и полезный для человечества машинный интеллект, при этом во много раз превосходящий интеллект обычного человека.

Суперразум достижим. Создание безопасного суперразума (SSI) самая важная техническая проблема нашего времени. Мы создали первую в мире лабораторию SSI с прямой целью и одним продуктом: безопасным суперразумом. Она называется Safe Superintelligence Inc.. [...] Наличие единственной цели означает отсутствие отвлекающих факторов на управленческие издержки или циклы продукта, наша бизнес-модель защищает безопасность, защищённость и прогресс от краткосрочного коммерческого проекта.

Илья Суцкевер в своих социальных сетях

Safe Superintelligence Inc. будет заниматься разработкой AGI (Artificial General Intelligence) – это гипотетически возможный искусственный интеллект, который будет обладать такими же способностями, как и обычный человеческий мозг. Этот ИИ сможет понимать информацию, учиться и применять свои способности в различных задачах. Ключевыми особенностями AGI являются универсальность, самообучение, абстрактное мышление и креативность. На данный момент AGI продолжает быть лишь концепцией, которая на данный момент не достигнута.

Из слов Ильи Суцкевера можно понять, что его новая компания хоть и будет заниматься разработкой мощнейшего ИИ, но не планирует повторять сценарии различных фантастических фильмов, где человечеству приходится сражаться с роботами и машинами.

Илья Суцкевер
Илья Суцкевер

В заявлении основатель SSI ставит на первое место создание безопасного сверхразума, то есть компания не будет разрабатывать какой-либо продукт как её конкуренты из OpenAI, Google и Anthropic (главной целью этих компаний является разработка ИИ для повседневного использования людьми).

В соучредители компании вошли два человека: Дэниел Гросс и Дэниел Леви. Дэниел Леви занимался обучением больших моделей ИИ и работал вместе с Суцкевером в OpenAI. Дэниел Гросс известен поддержкой крупных стартапов в области искусственного интеллекта.

Безусловно, создание ещё одной компании, которая занимается разработками в области искусственного интеллекта, приблизит человечество к созданию сверхразума, превосходящего по своим возможностям обычный человеческий мозг. Факт развития прогресса в области машинного интеллекта невозможно игнорировать, и поэтому основателям AI придётся со временем прибегать к протоколам безопасности, чтобы ИИ не «сошёл с ума». Однако эффективность безопасности подобных сверхразумов, которыми будут обладать машины, покажет лишь время.

Часто задаваемые вопросы

Кто такой Илья Суцкевер?
Бывший сооснователь OpenAI, специализирующийся на безопасности создания безопасного искусственного интеллекта.
Чем занимается компания Safe Superintelligence Inc. (SSI)?
Safe Superintelligence Inc. сосредоточена на создании безопасного сверхразума и его использовании в области ИИ.
Кто основал Safe Superintelligence Inc.?
Основателем Safe Superintelligence Inc. является Илья Суцкевер, в число соучредителей вошли Дэниел Гросс и Дэниел Леви.
Комментарии
Нет комментариев. Будьте первым!