Илья Суцкевер (Ilya Sutskever) — израильско-канадский компьютерный ученый, соучредитель и генеральный директор Safe Superintelligence Inc., а также бывший главный научный сотрудник и соучредитель OpenAI. Он является одним из самых влиятельных исследователей в области глубокого обучения, соавтором революционной нейронной сети AlexNet и создателем моделей GPT, которые изменили понимание возможностей искусственного интеллекта. В 2025 году он получил почетную докторскую степень Университета Торонто за вклад в развитие безопасного и ответственного ИИ.
Биография
Илья Ефимович Суцкевер родился 8 декабря 1986 года в Горьком (ныне Нижний Новгород), Россия, в еврейской семье. В возрасте пяти лет он совершил алию с семьей в Израиль, где жил в Иерусалиме до 16 лет. Именно в пятилетнем возрасте Суцкевер впервые увидел компьютер и был «совершенно очарован» им.
В 16 лет семья переехала в Канаду, где Илья продолжил образование. Уже будучи подростком, он мечтал о создании компьютеров с человекоподобными возможностями, размышляя о природе существования, сознания и интеллекта. Суцкевер поступил в Университет Торонто прямо после 11 класса и сразу начал изучать курсы старших курсов.
В 2005 году он получил степень бакалавра математики с отличием, в 2007 году — магистра компьютерных наук, а в 2013 году — докторскую степень по компьютерным наукам под руководством Джеффри Хинтона, который позже стал лауреатом Нобелевской премии по физике 2024 года.
Карьера и достижения
Научная карьера Суцкевера началась с революционного прорыва. В 2012 году, будучи еще аспирантом, он совместно с Джеффри Хинтоном и Алексом Крижевским создал AlexNet — сверточную нейронную сеть, которая стала одной из самых цитируемых научных работ этого столетия. AlexNet запустила революцию глубокого обучения в компьютерном зрении и изменила весь ландшафт искусственного интеллекта.
После защиты диссертации Суцкевер присоединился к Google Brain, где продолжил работу над последовательными моделями и машинным переводом. Его исследования в области sequence-to-sequence обучения заложили основу для современных систем обработки естественного языка.
В декабре 2015 года Суцкевер стал соучредителем OpenAI вместе с Сэмом Альтманом, Илоном Маском и другими, заняв должность главного научного сотрудника. В OpenAI он руководил разработкой моделей GPT, CLIP, DALL-E и Codex, которые трансформировали генеративный ИИ и большие языковые модели.
Однако в ноябре 2023 года Суцкевер оказался в центре драматических событий, когда совет директоров OpenAI, включая его самого, временно отстранил Сэма Альтмана от должности генерального директора из-за опасений по поводу коммуникации и приоритетов безопасности ИИ. Альтман был восстановлен через неделю, а Суцкевер покинул совет директоров, позже выразив сожаление о своем участии в этих событиях.
Личная жизнь
Суцкевер известен своей сдержанностью в вопросах личной жизни. Он сохраняет тесные связи с Университетом Торонто, где получил образование, и регулярно участвует в академических мероприятиях. Известно, что он глубоко размышляет о философских аспектах искусственного интеллекта, включая вопросы сознания и этики.
Суцкевер поддерживает связи с израильским сообществом — офис его новой компании Safe Superintelligence расположен не только в Пало-Альто, но и в Тель-Авиве. Он свободно говорит на нескольких языках и продолжает активно участвовать в научном сообществе через публикации и конференции.
Интересные факты
Одним из наиболее примечательных аспектов личности Суцкевера является его раннее предвидение потенциала искусственного интеллекта. Еще будучи подростком, он думал о возможности создания «душ» для компьютеров и считал обучение загадочным процессом, которым владеют люди, но не машины.
Интересно, что Суцкевер был одним из первых, кто купил множество GPU GTX 580 онлайн для поддержки вычислительных потребностей AlexNet — решение, которое стало стандартной практикой в машинном обучении.
В 2023 году Суцкевер высказал провокационную идею о том, что суперинтеллектуальные ИИ должны относиться к людям как родители к детям, чтобы обеспечить безопасное взаимодействие. Эта философская позиция отражает его глубокие размышления о будущих отношениях между человечеством и ИИ.
Современное положение
В июле 2025 года Суцкевер официально стал генеральным директором Safe Superintelligence Inc. после ухода соучредителя и прежнего CEO Дэниела Гросса, который перешел в Meta. Под его руководством компания отклонила попытки поглощения со стороны крупных технологических корпораций, включая Meta, подчеркнув свою приверженность независимости.
SSI достигла феноменального роста — от первоначального финансирования в $1 миллиард в сентябре 2024 года компания привлекла дополнительные $2 миллиарда в марте 2025 года, достигнув оценки в $32 миллиарда. Это сделало SSI одной из самых дорогих стартапов в истории, несмотря на отсутствие коммерческих продуктов и команду всего около 20 человек.
В 2025 году Google Cloud объявил о партнерстве с SSI для предоставления TPU для исследований компании, что демонстрирует серьезность намерений и масштаб амбиций.
Вклад в развитие индустрии искусственного интеллекта
Вклад Суцкевера в развитие ИИ-индустрии невозможно переоценить. Его работа над AlexNet запустила современную эру глубокого обучения, а исследования в области последовательного моделирования заложили основы для современных языковых моделей.
В OpenAI Суцкевер был движущей силой концепции масштабирования — идеи о том, что увеличение вычислительной мощности и данных приводит к качественным скачкам в производительности ИИ. Эта концепция стала основой для прорывов в генеративном ИИ, включая ChatGPT.
Особенно важен его вклад в понимание безопасности ИИ. На конференции NeurIPS 2024 Суцкевер предупредил, что ИИ с возможностями рассуждения станет «невероятно непредсказуемым». Он подчеркнул, что чем больше ИИ рассуждает, тем более непредсказуемым он становится, что создает новые вызовы для обеспечения безопасности.
Создание Safe Superintelligence представляет новую парадигму в разработке ИИ — компанию, которая фокусируется исключительно на создании безопасного суперинтеллекта без отвлечения на коммерческие продукты или циклы разработки.
Самая известная цитата
Наиболее известная цитата Суцкевера об искусственном интеллекте была произнесена в интервью Reuters в 2024 году:
««ИИ будет делать все то, что можем делать мы. Не просто некоторые вещи, а все. Большой вопрос — что произойдет тогда… Скорость прогресса станет действительно чрезвычайно быстрой, по крайней мере на некоторое время, что приведет к невообразимым вещам».
— Илья Суцкевер
Другая значимая цитата отражает его подход к безопасности ИИ: «Чем больше он рассуждает, тем более непредсказуемым он становится». Эта фраза стала символической для его понимания фундаментальных вызовов, которые создает развитие ИИ с расширенными возможностями рассуждения.
Заключение
Илья Суцкевер представляет собой уникальное сочетание выдающегося ученого, технологического визионера и этического лидера. Его путь от любознательного пятилетнего ребенка, очарованного компьютером, до создателя компании стоимостью $32 миллиарда демонстрирует силу научного любопытства и долгосрочного видения.
В эпоху, когда искусственный интеллект становится все более мощным, подход Суцкевера к безопасности ИИ приобретает критическую важность. Его решение покинуть OpenAI и создать Safe Superintelligence отражает глубокую приверженность принципам, которые он считает фундаментальными для будущего человечества.
Предупреждения Суцкевера о непредсказуемости рассуждающего ИИ и его философские размышления о необходимости «родительского» отношения суперинтеллекта к человечеству позиционируют его как одного из ключевых мыслителей нашего времени. Его работа в Safe Superintelligence может определить, будет ли развитие суперинтеллекта благом для человечества или создаст экзистенциальные риски. В этом контексте Суцкевер остается не просто выдающимся ученым, но и архитектором будущего, в котором нам всем предстоит жить.
