Нейросеть NVIDIA для превращения снимков в 3D-объекты позволяет «заглянуть в зазеркалье» Статьи редакции
Другие примеры работы ИИ-алгоритмов впечатляют не менее сильно.
В конце марта 2022 года NVIDIA представила нейронную сеть Instant NeRF, которая создаёт 3D-объекты и даже целые трёхмерные пространства из нескольких десятков снимков. После того, как компания предоставила желающим исходный код системы, в сети стали делиться результатами работы ИИ-алгоритмов.
Тестируя нейросеть, разработчик Юг Брюйер обнаружил необычный «побочный эффект», который возникает, когда в обрабатываемой сцене находится зеркало. Instant NeRF даёт возможность «залететь» в зеркало и даже немного продвинуться в «зазеркалье», осматриваясь по сторонам.
В приведённом Брюйером примере нейросеть обработала 134 фотографии. После ИИ-алгоритмы воссоздали снимки под недостающими углами, в том числе реконструировав отражение в зеркале. По словам разработчика, нейросеть «не понимает», что это зеркало, но знакома с понятием глубины.
Ооо! Это же моя канадская деревня.
И драндулет этот всем там известен.
Выйду из рид-онли, чтобы поддержать тжшников и оставлю на нем привет для вас, ребята.
Ничоси ты пёс!
А почему тачка стоит не там, как на гифке?
Комментарий недоступен
Комментарий недоступен
Комментарий недоступен
И карлан
И плешивый еблан
А мы воюем.
Нет бы в зазеркалье вместе смотреть!
Не ну реально, я даже приуныл из за этого поста :с
П.С. Ахуенно кстати :с
Теперь военные фейки выйдут на новый уровень. Заебёшься доказывать.
Военные фейки — это попытка выдать свои военные преступления за манекены в Голливуде. Ничего не изменится.
Вон, уже выкатили дипфейки лиц Трампа и Зеленского, но, неожиданно, никто в это не поверил. Хотя столько верещали, что за этим будущее войны.
Быть может потому, что живые люди могут опровергнуть слова дипфейка, а дипфейк мёртвых людей — не имеется смысла.
Почему везде какие-то сгустки материи летают?
ии не знает, что стена это стена. Вот ты видел иллюзии, когда складывают разные вещи вроде бы в разнобой, а когда смотришь под нужным углом - видишь уже то, что автор хотел показать? Так же и здесь. ИИ не понимает, что лампа это не 1 обьект, а может быть Плафон, колонна, основание и они размещены на растоянии 30см один од одного.
так же ИИ не знает где имменно каждый кусок фотки должен быть. И само моделирует.
Это мои догадки и на правдивость не претендую. Если меня поправят как правильно - буду рад.
Чтобы заглянуть в Зазеркалье нужны другие вещи
ты про аудионаркотики?
Комментарий недоступен
Комментарий недоступен
Да какого хера.
Я как бы не из леса. Стараюсь следить за технологиями. Но какого хера? Как это вообще работает? Опять какие то рендеры выдают за работу ИИ? Как ИИ може знать что за кадром? Как ИИ может нарисовать то, чего нет, в ее понимании? ИИ научили фантазировать а миру сказать забыли?
такое умеет iPhone, Samsung с датчиками TOF
делается несколько фоток, определяется отдаленность точек от камеры, строится 3D модель, тут пошли дальше: встроили виртуальную камеру с пролетом, ну и точность объектов намного выше
Ясно. Опять наебалово.
Одними из первых подобную технологию делали в Microsoft Photosynth почти 15 лет назад. Без лидара, просто склейка множества фотографий, в двух режимах как облако точек и как вид с определенного ракурса.
Свою версию NeRF для оцифровки известных мест Google показал два года назад, я так понимаю корнями он уходит в Project Tango. У Nvidia по видео достаточно стабильные цвета и освещение, но не понятно как и на что снимали.
Это называется фотограмметрия и математически это ещё очень давно уже было расписано, просто раньше не было вычислительных мощностей таких.
Кстати один из основных проф пакетов для фотограмметрии делает российская компания.
почему? за таким будущее
Ну это по сути то же виде только в 5 ФПС а остальные дорисовала программа, как это в игровой индустрии. Забыл как называется эта технология.
ну типа, зато как точно
кидаешь кучу фоток, на выходе 3D объекты
Отслеживает трассы лучей. А додумывать нейросеть давно умеет.
Параллакс, сравнение ближайших пискелей, всякие матрицы сравнения. Это если грубо. Знающие люди уже давно знают, как это работает. В теории можно и из обычного видео сделать 3D.
VisualSFM уже сто лет как существует. Или эта нейросеть принципиально лучше?
А эти облака специально накладываются?
Нет. Посмотри на скан мужика. В 3D модели его придётся ещё три года обтачивать, чтобы получить нормальную гладкую модель без этих вот клочков в воздухе.
Ого, ладно
Спасибо DTF за инфу.
Комментарий недоступен