В ПНИПУ узнали, может ли ChatGPT писать коды для создания 3D-моделей

Для создания трехмерных моделей (архитектурных элементов, зданий, местности) используют специализированные программы. Некоторые из них строят 3D-модель на основе компьютерного кода, однако, для его написания нужны знания программирования. Ученые Пермского Политеха протестировали искусственный интеллект ChatGPT для написания таких кодов, чтобы выяснить, возможно ли с его помощью создавать трехмерные модели без специальных навыков.

Исследование опубликовано в материалах «VI Международной научно-практической конференции: Новые информационные технологии в архитектуре и строительстве».

ChatGPT — это искусственный интеллект, обученный на обширных данных из интернета. Он ведет диалог как человек, отвечает на вопросы, учитывает предыдущую переписку, поддерживает общение на нескольких языках, знает синтаксис языков программирования. Ученые ПНИПУ протестировали еще одну его способность — генерировать программные коды для создания трехмерных моделей на основе словесного запроса.

Исследователи Пермского Политеха писали в ChatGPT запросы создать код для трехмерной модели, начиная с простых геометрических форм, архитектурных элементов и заканчивая сложными математическими фигурами. Всего политехники провели около 20 тестов. Полученные результаты (коды) загружали в программы Blender и OpenSCAD, которые формируют трехмерные модели на основе программного кода.

В первых тестах создавались 3D-модели для простых геометрических форм. Например, ученые ПНИПУ сформулировали задание в ChatGPT: «Напиши код на Python для Blender для создания куба». В ответ получали часть программного кода и комментарий о его работе от искусственного интеллекта (ИИ). Полученный код копировали и вставляли в специальное окно программы Blender (Scripting). В результате получили нужную фигуру.

После успешного опыта аналогичным способом ученые ПНИПУ попытались создать целые здания, например, православный храм. Код выполнен без замечаний компилятора (программа переводит текст на языке программирования в набор машинных кодов), но получившаяся фигура не соответствовала запросу и представляла собой набор кубов разных размеров. Неточности при ответе искусственного интеллекта называют «галлюцинациями». Чаще всего такое явление возникает, когда ИИ не хватает данных для точного ответа на конкретный вопрос.

Далее ученые Пермского Политеха предприняли еще несколько попыток.

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (2 votes)
Источник(и):

Naked Science