С начала 2024 года не прекращается череда новостей об искусственном интеллекте, машинном обучении, внедрении ИИ в повседневную жизнь человека, благодаря чему делая её лучше. Однако в этом вопросе существует большое количество непопулярных моментов, в том числе опасения, что искусственный интеллект – это всё-таки машина, которая может обрести собственный разум и выйти из-под контроля.
Для предотвращения подобного сценария компании, занимающиеся ИИ, разрабатывают различные протоколы безопасности. И 19-го июня 2024 года один из сооснователей OpenAI, Илья Суцкевер, объявил о создании компании Safe Superintelligence Inc., которая будет заниматься одним единственным продуктом – безопасным суперразумом искусственного интеллекта. В этой статье редакция CyberMeta собрала всю информацию об основателе Safe Superintelligence Inc. Илье Суцкевере и компании в целом.
Кто такой Илья Суцкевер
Илья Суцкевер родился в СССР в 1986 году, в 1991 году его семья эмигрировала в Израиль, а в 2002 году переехала в Канаду. После окончания Университета Торонто Суцкевер занимался разработками в сфере искусственного интеллекта и машинного обучения. В 2015 году он стал одним из сооснователей OpenAI. Летом 2023 года возглавил отдел в OpenAI, который занимался безопасностью и управляемостью искусственного интеллекта, чей разум должен превосходить возможности человеческого мозга.
Его основным приоритетом в OpenAI была безопасность искусственного интеллекта. Этот вопрос актуален, так как последние месяцы в мире появляется всё больше вопросов, насколько человек может контролировать машинный интеллект, ведь последний может выйти из-под контроля и обрести собственный разум.
15-го мая 2024 года Илья Суцкевер покинул OpenAI из-за разногласий с главой компании Сэмом Альтманом, сообщив, что в ближайшее время объявит о своём новом проекте.
Илья Суцкевер основал Safe Superintelligence Inc.
Safe Superintelligence Inc. – новая компания, основанная Ильёй Суцкевером. Основной целью компания ставит создание суперразума, который будет защищён от «неправильного» воздействия и использования. Safe Superintelligence – это термин, который обозначает безопасный и полезный для человечества машинный интеллект, при этом во много раз превосходящий интеллект обычного человека.
Суперразум достижим. Создание безопасного суперразума (SSI) самая важная техническая проблема нашего времени. Мы создали первую в мире лабораторию SSI с прямой целью и одним продуктом: безопасным суперразумом. Она называется Safe Superintelligence Inc.. [...] Наличие единственной цели означает отсутствие отвлекающих факторов на управленческие издержки или циклы продукта, наша бизнес-модель защищает безопасность, защищённость и прогресс от краткосрочного коммерческого проекта.
Safe Superintelligence Inc. будет заниматься разработкой AGI (Artificial General Intelligence) – это гипотетически возможный искусственный интеллект, который будет обладать такими же способностями, как и обычный человеческий мозг. Этот ИИ сможет понимать информацию, учиться и применять свои способности в различных задачах. Ключевыми особенностями AGI являются универсальность, самообучение, абстрактное мышление и креативность. На данный момент AGI продолжает быть лишь концепцией, которая на данный момент не достигнута.
Из слов Ильи Суцкевера можно понять, что его новая компания хоть и будет заниматься разработкой мощнейшего ИИ, но не планирует повторять сценарии различных фантастических фильмов, где человечеству приходится сражаться с роботами и машинами.
В заявлении основатель SSI ставит на первое место создание безопасного сверхразума, то есть компания не будет разрабатывать какой-либо продукт как её конкуренты из OpenAI, Google и Anthropic (главной целью этих компаний является разработка ИИ для повседневного использования людьми).
В соучредители компании вошли два человека: Дэниел Гросс и Дэниел Леви. Дэниел Леви занимался обучением больших моделей ИИ и работал вместе с Суцкевером в OpenAI. Дэниел Гросс известен поддержкой крупных стартапов в области искусственного интеллекта.
Безусловно, создание ещё одной компании, которая занимается разработками в области искусственного интеллекта, приблизит человечество к созданию сверхразума, превосходящего по своим возможностям обычный человеческий мозг. Факт развития прогресса в области машинного интеллекта невозможно игнорировать, и поэтому основателям AI придётся со временем прибегать к протоколам безопасности, чтобы ИИ не «сошёл с ума». Однако эффективность безопасности подобных сверхразумов, которыми будут обладать машины, покажет лишь время.