Стоковые изображения от Depositphotos
Большие языковые модели (LLM), на которых базируются ChatGPT и другие инструменты генеративного (создающего контент — ИФ) искусственного интеллекта (ИИ), никогда не выйдут на уровень человеческого интеллекта, полагает главный научный сотрудник американской Meta в области ИИ Ян Лекун, сообщает Интерфакс-Казахстан.
По его мнению, у таких моделей очень ограниченное понимание логики, и они не смогут рассуждать и планировать, как человек. Кроме того, они «не понимают физический мир, не обладают постоянной памятью, не способны рассуждать в каком бы то ни было разумном смысле этого слова и не могут планировать... иерархически», заявил он в интервью Financial Times.
Лекун высказался против того, чтобы полагаться на развитие LLM в стремлении создать интеллект на уровне человеческого, поскольку эти модели могут точно отвечать на запросы лишь в том случае, если обучены на корректных данных, и поэтому небезопасны.
Вместо этого эксперт занимается разработкой абсолютно нового поколения ИИ-систем, которые, как он надеется, наделят машины «человеческим» интеллектом. Однако на выполнение этой задачи может уйти десять лет, пояснил он.
Ян Лекун руководит командой из порядка 500 человек в лаборатории фундаментальных исследований Meta в области ИИ. Они работают над созданием искусственного интеллекта, который может развить в себе чувство здравого смысла и изучать устройство мира аналогично человеку. Такой подход называется «моделирование мира».
Новые процессоры будут ориентированы на обеспечение работы
Google, Meta, Microsoft обязались следить за безопасностью своих ИИ-систем
OpenAI и Meta выпустят ИИ-модели со способностью рассуждать и планировать
Данные казахстанцев планируют использовать для обучения ИИ
Подпишитесь на недельный обзор главных казахстанских и мировых событий
По сообщению сайта kapital.kz