Eevee blender что это

Руководство
по EEVEE

Что такое EEVEE?

Изначально планировалось перейти на новую версию OpenGL, увеличить производительность высокополигональных сцен и в целом поднять на новый уровень работу с материалами, чтобы не приходилось включать Cycles каждый раз, как изменится один из сотни параметров в дереве нодов.

И тут разработчиков немного понесло. Они внедрили столько нововведений, что из всего этого собрался полноценный движок рендеринга в реальном времени. Теперь есть возможность не только увидеть свой шейдер на Сюзанне без необходимости включать Cycles, а сделать анимацию интерьера на одной видеокарте семилетней давности практически фотореалистичного качества.

Можно многое сказать об этом рендере, но вы или уже наслышаны о нем, или должны знать лишь следующее. Это PBR-рендер (Physically based rendering) в реальном времени, настройка материалов в котором происходит так же, как в Cycles, с некоторыми оговорками (о которых в книге). Однажды поработав с ним, вы долго будете задаваться вопросом: «А как мы вообще раньше работали без него?».

Содержание книги

Отрывок из книги

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Посмотреть отрывок из книги
вы можете в данном PDF-файле

Техническая информация

Часто задаваемые вопросы (FAQ)

По большому счету, для успешного усвоения материала данной книги не требуются глубокие знания программы Blender. В книге все подробно объясняется и трудностей возникнуть не должно.

При возникновении вопросов отправьте письмо, в котором максимально подробно опишите возникшую проблему. Также можете воспользоваться чатом в правом нижнем углу экрана.

Нет, книга распространяется только в электронном виде.

Вы можете оплатить книгу через банковскую карту Visa/MasterCard или с электронного кошелька в системе Яндекс.Деньги. Также можете оплатить товар с помощью 4-х наиболее популярных криптовалют, а именно: Bitcoin, Ethereum, Bitcoin Cash и Litecoin.

Да. Напишите мне на почту и я подскажу как это сделать.

Да. Система оплаты на сайте Яндекса переведет Вам стоимость книги по текущему курсу в день оплаты.

Заказать книгу

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Обновление книги

Уже по сложившейся традиции я буду поддерживать данную книгу в актуальном состоянии максимально долгое время. Blender не стоит на месте, все время улучшается, перерабатывается, дополняется. После выхода новой версии Blender я буду дорабатывать данную книгу и выкладывать ее обновленную версию абсолютно бесплатно.

Для удобства ознакомления с новой информацией будут создаваться своеобразные патчноуты для каждой версии книги и публиковаться в данном разделе, а также в социальных сетях. За счет этого вам не придется заново перелистывать всю книгу, и вы сможете быстро ознакомиться с ее новым содержанием.

Для получения обновленной версии книги вам нужно будет зайти на свою страницу профиля в магазине и заново ее скачать.

Источник

Blender, 1001 мелочь

Приёмы работы с Blender версии 2.79, продолжение. На этот раз затронуты материалы и получение финального рендера изображения. Для понимания более базовых принципов и инструментов рекомендуется обратится к предыдущей статье.

Материалы

Для того, чтобы назначать объекту материал и редактировать его свойства, понадобится найти на панели Properies (находится слева, ниже окошка Outliner’а, в котором отображается список объектов на сцене) вкладку Material (обозначена розовым шариком).

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Когда объект выделен в сцене (или выбран в списке Outliner’a), то на вкладке Material будут видны параметры материала текущего объекта. Если объект не может иметь материалов (камера, лампа и так далее), то и подобной вкладки у него не появляется.

По умолчанию у добавляемых в сцену примитивов материалы отсутствуют (если выбран рендер Cycles) и в окне вкладки материалов пусто. Чтобы добавить простейший материал нужно нажать в том окне кнопку + New и на объекте появится материал с шейдером Diffuse.Сам объект визуально почти не изменится, оставаясь всё таким же белым, зато теперь можно менять его цвет и насыщенность, щёлкнув по параметру Color.

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоДобавление нового материала

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Из прочих шейдеров можно отметить Anisotropic BSDF (такой же зеркально-бликующий как и Glossy, но с возможностью сильнее искажать отражение), Transparent BSDF (регулирующий степень прозрачности объекта) Subsurface Scattering (придающий поверхности более восковой или органический вид) и Velvet (создающий вычурный эффект бархатистой ткани).

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоМеняем нижнее окно на редактор узлов

Принцип здесь такой, что цепочку узлов можно усложнять, но в итоге она приходит в финальный узел Material Output (чаще всего на основной его канал Surface), чтобы наконец отобразиться на объекте. Если же к Material Output ничего не присоединено, то объект просто будет отрисован совершенно чёрным.

Открыть Node Editor в нижнем окне

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоСмешение двух диффузных шейдеров (белого и красного). Образец результирующего материала всегда можно видеть справа (не только на сцене), если раскрыть графу Preview

По сути, фактор смешивания в Mix Shader (параметр Fac) представляет собой элементарную маску, которая в крайних положениях ползунка может быть либо полностью чёрной (виден только первый компонент смешивания) либо полностью белой (виден только второй компонент смешивания), а в промежуточных положениях даёт различные градации серого (оба компонента вносят свою долю в результат).

Если хочется более интересного смешения, можно подключать к MixFactor, например, текстуры. Для простоты, в узлах NodeEditor уже содержится несколько предустановленных текстур, например, процедурные Musgrave Texture, Voronoi Texture и Wave Texture для достаточно наглядных хаотических либо упорядоченных узоров. Если подключить такую текстуру к параметру Color узла Diffuse, то можно увидеть, что объект заполнен тёмными и светлыми областями. Если же эта текстура подключена к параметру Fac узла Mix Shader, то в тёмных областях будет преобладать один из компонентов смешивания, а в белых другой.

Кстати, параметр каждого узла справа может быть подключен в разное количество мест одновременно. Например, текстура через параметр Color может быть подключена сразу и к цветам нескольких узлов, или, например, в то же время и к параметру Fac.

Френель в качестве фактора смешивания

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Если материал должен просто накладывать на объект произвольное изображение, тогда нужно добавить узел ImageTexture, в котором есть диалог загрузки пользовательского изображения. Далее присоединить его к параметру Color, того же стандартного узла Diffuse (или Principled). Пока изображение не выбрано материал будет фиолетового цвета. Когда мы укажем текстуру, то. скорее всего изображение всё ещё не будет наложено на объект. Происходит это по причине того, что у материала в данном случае нет информации о том, как следует разместить текстуру по поверхности объекта.

Добавление текстуры к шейдеру

Для того, чтобы изображение наложилось хотя бы как-нибудь, при отсутствии нормальной развёртки, можно воспользоваться парой простых методов: создать автоматическую текстурную развёртку для объекта или добавить в материал ещё один узел, который будет задавать принципы проецирования текстуры на объект.

В первом способе нужно просто зайти на вкладку Data текущего выделенного объекта и нажать на плюсик слева в окошке графы UVMaps. После чего сгенерируется автоматическая развёртка и в это окошко добавится строчка UVMap (предустановленное имя для каждой новой авторазвёртки ). Теперь на объекте появится изображение, хотя и будет наложено, скорее всего, с различными растяжками и прочими дефектами.

Упрощённое добавление авторазвёртки

Узел Texture Coordinate

Что в первом, что во втором случае пригодится узел Mapping для изменения размера. Этот и прочие преобразующие/конвертирующие узлы следует подключать в правильные места, например, Mapping подключенный между Texture Coordinate и Image Texture будет вмешиваться в передаваемый вектор (в том числе регулировать размер текстуры), а если его поместить уже после Image Texture к линии Color, то он будет регулировать уже цвет (а не размер, поворот и смещение текстуры).

Для придания материалу эффекта микрорельефа любые текстуры можно подключать к параметру Displacement финального узла Material Output.

Рендер изображения

Нужно понимать, что камера смотрит на сцену со своей точки зрения и обычно показывает не то, что мы видим, работая в редакторе. Чтобы «прилететь» своим взором в текущий ракурс камеры нужно нажать Numpad 0 на цифровой клавиатуре. Повторное нажатие Numpad 0 вернёт нас обратно в тот вид из которого мы «улетели». Если же двинуть мышью с зажатой средней кнопкой мыши, то мы выйдем из ракурса камеры, но в более близкий к нему угол зрения.

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоПеремещаем и поворачиваем камеру, как обычный объект Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоПосле чего нажимаем Humpad 0, чтобы увидеть сцену из камеры

Для более точной подстройки ракурса можно дополнительно подвигать саму камеру, выделив её, как объект (здесь пригодится переключить систему координат объекта с Global на Local). Если перейти в вид из камеры, когда она выделена, то можно просто потаскать её в стороны, нажав G (либо набирая GX, GY или GZ для перемещения точно вдоль осей) или покрутить, нажав R (соответственно, RX, RY, RZ).

Возможно, когда выбран вид из камеры, то по какой-то причине задний фон обрезается и часть дальних объектов не отображается. Это происходит потому, что у камеры есть параметр дальности отрисовки, отсекающий лишнее. Чтобы камера захватывала большее пространство нужно выделить её, тогда на панели Properties один из последних значков изменится на камеру (вкладка Data). Переходим туда и, находясь в графе Lens, выставляем большее значение, чем стандартное 100 в разделе Clipping: End.

Когда мы смотрим на сцену из камеры и на сцене включен режим рендера, то всё что находится за пределами камеры тоже пытается отрендерится. Для некоторой оптимизации можно поставить галочку на параметре Border (панель Properties, вкладка Render, графа Dimensions, внизу), тогда при виде из камеры то, что выходит за границу её видимости рендерится не будет.

Кроме камеры нам, вероятно, понадобится источник света, так как одного фонового света часто недостаточно. Например, точечный источник света (Point) или солнечный (Sun).

Оптимальный диапазон параметров силы источников света тоже несколько отличается. Свежесозданный Point имеет предустановленную силу света 100 и там обычно выставляются значения в сотнях и тысячах. У Sun предустановленный параметр силы света равен 1 и, как правило, крутится где-то в диапазоне от 0.5 до 3.

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоПроцесс рендера изображения

Общий прогресс создания рендера отображается сверху, и здесь же его можно отменить, при желании. Когда картинка готова, то для сохранения выбираем пункт Image на панели и далее Save As Image. Если этот пункт горит серым, значит картинка ещё не отрендерилась до конца и нужно дождаться окончания процесса (либо принудительно остановить его, нажав на крестик правее полосы прогресса).

Когда открывается диалог сохранения изображения, то внизу слева можно выбрать формат (по умолчанию PNG), цветность, глубину цвета, качество.

Чтобы вернуться из этого окошка обратно в сцену нужно найти на его нижней панели самую левую иконку, нажать на неё и выбрать пункт 3D View.

Возврат в сцену из окна рендера

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что этоВкладка Render

В следующей графе, Dimensions, показаны настройки текущего разрешения, по умолчанию 1920 на 1080 с уровнем чёткости 50%. Чем меньше каждый из этих параметров, тем быстрее рендерится картинка, но и результат будет более размытым и менее детализированным. Для итогового рендера, когда мы уже вряд ли что-то будем менять в сцене и в настройках, уровень чёткости желательно выставить в 100%.

В графе Sampling находится ещё один важный параметр качества в разделе Samples: Render. По умолчанию для финального рендера установлено 128 проходов на каждый пиксель, а для рендера в редакторе 32. Чем больше проходов тем лучше, но процесс рендера замедляется довольно сильно, поэтому стоит подбирать значения по ситуации (часто 256 или 512 проходов уже смотрятся неплохо). К тому же повышение числа проходов в некоторых сценах может не так существенно влиять на качество.

Нивелирование светового шума

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Чтобы снизить количество шума на картинке можно воспользоваться опцией Denoising (включается на вкладке Render Layers, следующей за Render), которая немного сгладит (замылит) картинку. При этом на стеклянных/зеркальных поверхностях могут появиться нежелательные разводы и артефакты. Чтобы сделать фильтр более аккуратным можно дополнительно покрутить настройки раздела Denoising.

Для перевода рендера в формат более реалистичной цветопередачи желательно заглянуть на вкладку Scene и в графе Color Management сменить Default на Filmic в разделе Render: View. А также sRGB поменять на Linear в разделе Sequencer: Color Space.

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Прочее полезное

У источников света есть свой отдельный параметр размера лампы и этот показатель может влиять на степень светового шума при рендере. Размер самих объектов в сцене тоже может оказывать своё влияние, если вся сцена содержит по сути гигантские или микроскопические объекты, которые только относительно друг друга кажутся нормальными.

Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это Eevee blender что это. Смотреть фото Eevee blender что это. Смотреть картинку Eevee blender что это. Картинка про Eevee blender что это. Фото Eevee blender что это

Пользовательская карта HDRI

Если на объекте имеется некий материал, то при создании копии объекта (Shift D) на ней будет создан новый материал с такими же свойствами и его можно будет редактировать независимо. Если же создаётся клон объекта (Alt D), то у клона будет тот же самый материал.

Материалы без носителя

На итоговом кадре не только фон, но и прочие объекты могут создавать область прозрачности. Для этого нужно назначить им материал с шейдером Holdout. При этом у самого фона прозрачность должна быть тоже включена (пункт Transparent).Кстати, объекты с Holdout продолжают отбрасывать тени, хотя сами становятся невидимыми на рендере. Чтобы это убрать нужно выделить объект, зайти в панель Properties, вкладка Object, в самом низу открыть графу Cycles Settings этого объекта и убрать галочку с Shadow.

В Blender можно рендерить и двухмерные изображения, не обязательно трёхмерную сцену. Например, логотипы, значки, прочие плоские картинки. У плоского изображения обычно нет пространственных искажений, часто отсутствуют блики и тени, потому что не требуется делать акцент на его объёмности. Поэтому для плоских рендеров лучше перевести камеру в режим ортографической проекции (Ortographic) вместо перспективной и отключить прочие источники света кроме фона. Плюс можно добавить обводку по краям объектов, отметив галочку на параметре Freestyle (графа на вкладке Render). Тогда после рендера всего кадра Blender будет делать дополнительный проход, чтобы добавить поверх него обводку.

Коррекция загружаемых изображений

Трипланарное наложение: локальные координаты

Трипланарное наложение: глобальные кооридинаты

Источник

35+ превосходных демо Eevee

Eevee не устаёт удивлять пользователей своим молниеносным развитием как внутри, так и за пределами сообщества Blender. Вот новая партия из 35+ демок Eevee, настоящее удовольствие для увлеченных риалтайм графикой.

Самая полная подборка Blender Eevee Demos на декабрь 2018

ALIEN(1979) scene by ArtNix

Countryside Real Time by Vadim Ignatiev

Space Suit by Albin MERLE

SSS by Monaime Zaim

Smoke test by Leandro Dreamer

Blender EEVEE short workflow and render by Neveselov

Volumetric light by MFS.Junior 3D

Twisting Corridor by Aidy Burrows

Elevator Dive by Aidy Burrows

Mandelbulb Fractals rendered test in 4k by infango (original scene by Jonas Dichelle)

Screen Space Reflections by WurmiSaft

Ink Drop (Smoke Simulation) by YafuLinux

Alien facemocap by Emiliano Colantoni

EEVEE Hair – This is getting ridiculous by Da Paulus

How to use Irradiance Volumes in EEVEE by HEAVYPOLY

Goodnight Claire – Blender 2.8 development test by Daniel Bystedt

Zbrush 2018 Mech – realtime render by Daniel Bystedt

Creating Foliage in Blender. Grease Pencil + Eevee by Jama Jurabaev

Space Suit by Jama Jurabaev

Spectral by Emiliano Colantoni

Mandelbulb Fractals by Jonas Dichelle

ToyCar by BlenderBelich

Volumetric – Disco Disco by Da Paulus

The showcase of Hermans by Leonardo Braz

Autofocus Fun by Zacharias Reinhardt

Commodore Amiga CDTV by Piotr Zgodziński

Cafe Racer Hoverbike 3D Printable Kit by HEAVYPOLY

Blender Eevee Viewport Test(GTX 1080 TI) by Uygar GÜRKAN

Blender Eevee Render Engine Test by Ilia Sibiryakov

Sphere Bot by Louis du Mont

EEVEE Test by Oleg Frumson

Catwoman by katarn66

Demoreel 2018 by Damien Monteillard

Источник

Want to master Blender? Click here! and get our E-Book

A render engine such as Blenders Eevee renderer has a huge amount of settings and it can sometimes be hard to know what settings are significant for any given project. In this article we will therefore take a look at most Eevee render settings and learn in what scenario we may need what setting.

Blender Eevee render settings we will look at are:

This list cover most sections in Eevees render tab in Blender. But there are more render engine specific settings such as the passes, certain shader nodes and objects only related to Eevee. However, I have limited the scope of this article to the core render settings with some exceptions such as light probes that we touch briefly.

Much of the information I am going to explain and discuss can be found in the Blender manual. I have used it as a source together with extensive testing to extend the explanations in the manual. You can find the specific sections here:

Eevee render overview

Eevee is a rasterized render engine. Using different tricks and techniques to speed up render times for each frame to end up at a real-time or close to real time render speed.

With this kind of engine comes a lot of different features and settings to tweak individual components based on the users need. We can render very basic images with a limited set of features turned on, or we can aim for a close to ray-traced render engine result while still maintaining a relatively short render time. Utilizing all the bells and whistles at our disposal.

Eevee is unique in that it is compatible with its brother ray-traced engine Cycles. They share a common shader system while lighting and render settings are separate. But the render engines are more and more developed to match each other in look and feel.

One of the differences between a ray-traced and rasterized engine though is that in a rasterized engine a lot of post-processing features are built in while the ray-traced counterpart needs a post-processing pipeline to get the same effects. Therefore, a lot of the settings we will cover are related to post processing.

The settings we will cover can be found in the properties panel by clicking on the render tab. The interface is divided up in groups depending on the feature a setting is related to.

Some of these settings are turned off by default. We can turn them on by toggling the checkbox on the given section.

Sections that don’t have a checkbox are either always on or is turned on or off by Blender if the effect is detected elsewhere. For instance if we have a material using the subsurface scattering effect, that section is automatically turned on. The same goes for volumetrics. However, volumetrics are not covered in this article.

Eevee sampling settings

We have two different samples settings. One for viewport rendering and the other for when we do our final F12 render.

If you are used to Cycles, you know that for each sample rays are cast into the scene from the camera to bounce around and gather data to end up at a color value for each pixel. The more samples we use the more data is collected and the more accurate the final color will be.

In Eeevee the samples are used in a process called Temporal Anti-Aliasing. The more samples we have the softer edges in the scene will get. Samples are also used for many features that has a random component. For example soft shadows. Other features such as subsurface scattering however has its own sample count.

The soft shadow setting can be found in the shadow section discussed further below.

Soft shadows is a feature that cast shadows using the lights position plus a random component. It does this multiple times depending on the number of samples to create a soft blurred edge on the shadow instead of a single sample with a hard edge. Making the shadow appear much more natural. In this case the sample count increase the quality of the shadows when this setting is turned on.

Other features that use the samples are for instance reflections, refraction, anti-aliasing and alpha hashed transparency.

Personally I tend to increase the samples somewhat from the default value. For most scenes though, I don’t have to go above 256 samples for a soft enough image.

We also have a setting called viewport denoising in this section. According to Blenders manual this is supposed to reduce noise while we are moving the camera in the viewport or doing an animation playback. However, I found the difference to be very slight while testing. Nonetheless, it is there, and we might as well keep it turned on while working.

Eevee ambient occlusion settings

Ambient occlusion is a feature that creates shadow where different surfaces meet. For instance in corners and crevasses where light would normally be more limited.

By the way, I have a full article here, covering everything there is to know about ambient occlusion.

There are many variations of ambient occlusion in Blender vocabulary. Everything from ambient occlusion texture maps to the AO shader node and global ambient occlusion which we see here.

Each of these are different implementations of the same feature. But they are mostly unrelated except the AO shader nodes that need ambient occlusion to be turned on at a render settings level to work in Eevee.

In the ambient occlusion section we have a few different settings. Starting with distance. Distance tells how far away from an object other objects will be taken into account to contribute to its shadow effect. We can also think of it as a slider to decide how large the shadows should be.

The factor in turn, will blend between the ambient occluded version of the scene and a scene without ambient occlusion. Putting this to zero will effectively remove the effect.

Trace precision is a tricky setting. Generally I don’t touch this for my scenes.

According to the manual, it increases the precision of ambient occlusion making the effect more accurate with higher numbers. But it may introduce more noise and can have a performance hit. With too high or too low values you may also miss surrounding objects since the trace distance is lowered with a higher value and the accuracy is worse with a lower value.

In other words, this is a good slider to adjust if you experience problems or artifacts with your ambient occlusion.

A bent normal is the direction from which most light hit a face rather than the tangent normal that points straight up from the face. Using the bent normal instead of the tangent normal generally gives a more realistic lighting. So in general, we want this setting turned on even if the difference in many cases is slight.

The Unreal Engine documentation kind of explains it here:

The bounce approximation setting makes Blender look at an objects surface color and the lighter it is the less occlusion it gets. This makes the produced shadow relative to the colors value on an object. Lighter objects gets a lighter shadow.

I would say that this is one of the more important settings for AO. Without it, we get quite distinct shadows with a lot of contrast.

There is also an ambient occlusion pass that we can turn on if we want the ambient occlusion data to be available separately for post processing. But keep in mind that the bounce approximation setting above does not affect the AO pass.

Eevee bloom render settings

To use bloom in Eevee, all you have to do is to turn in on here in the render settings.

For Cycles, it requires some post-processing and if you are interested in how that works you can read this article here:

Enable bloom in Eevee by ticking the checkbox for it in your render settings. Generally the bloom is pretty well setup with the default settings. But there are several sliders we can play with for maximum control.

The threshold will decide the lowest amount of brightness in a pixel in order for it to be a source of bloom. So a value of 1 would mean that pixels that are white or brighter will «emit» bloom around them.

The knee setting makes sure that the transition from over and under threshold becomes gradular. In reality this setting don’t make a lot of difference. But a very high knee value will bring a kind of faint haze to the entire scene since the fading bloom will fade to lower values.

The radius in turn makes a significant difference to the effect. It decides how far the bloom effect will reach from the points decided by the threshold.

We can then use the color to tint the bloom. Be careful here though since it is easy to go overboard. White is the safest choice. But if you have built a natural scene you can tint the bloom color to either a cold or warmer color. However, be careful with other colors since they can very fast make a scene look artificial and unnatural. But perhaps that is your intent.

The intensity value is pretty self-explanatory. It will decide the amount of bloom while the clamp value below will limit the intensity value.

Eevee Depth of field settings

Depth of field or DOF for short is primarily controlled from the camera settings.

Here is an example of DOF for those that are not sure what it is. The birds are in focus but the foreground and background are out of focus and blurred.

Select your camera and go to the object data properties represented by the green camera icon in the properties.

Here you will find a Depth of field section that you can enable.

We will only touch on this briefly since it is slightly outside the scope of Eevee render settings.

We can select an object or a distance that will be our focus. The f-stop in the aperture subsection then decides how wide the focus area will be.

Everything outside the focus area will be more or less blurred from the lack of focus.

Now back in the Eevee render settings. We only have one setting in the depth of field section called max size.

When using DOF the objects that are not in focus will have a spread around them that creates the blurry effect. The max size setting decides how much the objects that are out of focus are allowed to spread to create the blurred effect.

It can be hard to understand why this setting even exists but it is mostly for performance reasons. We want to set this as low as possible but not so low that our DOF can’t spread enough.

There is also an added benefit with this setting. Any value lower than 1 pixel will make everything that is out of focus white. This makes it very easy for us to dial in our focus with the f-stop setting on the camera.

Eevee Subsurface scattering settings

Subsurface scattering is an effect that we see in nature. Things like flesh, snow and leaves all have subsurface scattering. It happens when we see light through a thin object that allow some light to leak through.

A typical example is when someone is standing with the sun behind them and the sun shines through their ears making them almost light up. You can achieve something similar by putting your hand up against the sun and see the light come through the thinner parts.

The subsurface scattering settings used to be something you had to turn on. But now Eevee detects if there is a shader in the scene that uses subsurface scattering and turns it on automatically.

There are two settings that both balance between speed and performance. Samples and jitter threshold.

Subsurface scattering has its own sample count separate from the scene wide sample count discussed above. If we put the jitter threshold to 0 and the sample count to 4 this is what we get.

You can see that the samples add additional randomly scattered versions of the object on the inside perimeter.

Let’s now bring up the jitter threshold to 0.5.

You can see how those samples start to blend together thanks to the jitter threshold.

The goal should be to find a low sample and jitter count that still gives us a seamless result.

As a general rule, you could say that the more zoomed in a shot is to a subsurface scattering effect the higher samples and jitter threshold is needed.

Screen space reflection in Eevee

Screen space reflection is one of two features in Eevee that allow us to create reflections. The other way is to use light probes. But let’s start with screen space reflection.

Screen space reflection is capable of reflecting what we see from the view. In other words, if something isn’t directly visible, we can’t see it in a reflection.

Therefore, we may have very different reflections as we hover around the 3D viewport than what we get in the final scene since the reflections we see is solely dependent on the current view.

Something to keep in mind is that if you are previewing your scene through the camera with screen space reflection turned on, you will get a fuller reflection the less you are zoomed in since more space around the camera can be reflected.

Here is an example.

You can see that we have a red and a blue monkey at least partially reflective in this 3D viewport shot. They fade away because we can’t see the backside from the view. But let’s look at the F12 final render.

Comparing to the previous image you can see that the reflection of the red monkey is inside the frame and should be visible from the camera. But since the real red monkey isn’t visible from the camera as we render, its reflection won’t get rendered either.

To reflect what is outside our view we need to combine screen space reflection with reflection probes. More on those when we discuss indirect lighting.

Instead, I want to focus on the settings we have to work with for screen space reflection.

Screen space reflection is based on the global samples count. With very few samples we won’t get much depth in the reflection. As we increase the number of samples, each sample is blended together for a smoother look. Here is a comparison between one sample and 64 sample reflection.

1 sample above and 64 samples below.

Let’s now get started on exploring the different settings for screen space reflection within the Eevee render settings.

The refraction checkbox is a toggle to turn on screen space refraction globally in our scene. This is one way that we can create glass in Eevee. Once this is turned on, screen space refraction is controlled on a per material basis.

If you go to the material tab and find the settings section, you will see a screen space refraction checkbox. Check it to have the selected material use screen space refraction.

Note though that the refracted object will no longer be reflected. You only get one of them. Either screen space reflection or screen space refraction.

The next setting is half res trace. This will use half the resolution for reflections, making them faster but blurrier thanks to the lower resolution.

If you can get away with half res trace turned on and you need the extra performance. That is when to use it.

The next settings is trace precision. It is a more technical setting that dictates the precision of the rays traced while performing screen space reflection.

According to the blender manual higher precision introduces more noise and lowers the maximum trace distance as well as performance cost.

In reality, my experience is that with higher trace precision we get more accurate and sharp reflections. There probably is a performance cost but I haven’t felt it.

Keeping this at the default 0.5 or higher is probably very reasonable in most cases.

The max roughness setting is a threshold for how rough a reflective surface can be before it will no longer be considered a target for reflections.

Keep in mind that this refers to the roughness of the object that is reflecting and not the object that is being reflected. It affects the roughness of the mirror if you will.

Thickness will increase the thickness of the reflection. Since screen space reflection can’t reflect what it can’t see we have no way of knowing how thick an object is from the screen space reflections point of view. The thickness setting will be the value dictating this thickness.

Sometimes our reflections may get a hole inside it because we can’t see that portion from the view. In those cases we can increase the thickness to patch any incomplete reflections.

Another alternative would be to complement screen space reflection with reflection probes.

The edge fading will fade the reflection starting from the point furthest from the reflected object.

Clamp in this case, will clamp the light we see in a reflection. This can be used if we have noise in the reflections. But a too low value will remove depth from the reflection, only leaving a flat color as the reflection on very low values.

Eevee performance settings

Eevee only have one setting in the performance section. That is high quality normals. This was added in blender 2.83. Personally I haven’t used it. But what I found was that if you have a texture on a very dense mesh you may have artifacts thanks to how Blender compress normals.

You can read more about it here:

In short, if you experience artifacts or weird deformations on your textured object, try using high quality normals to see if it fixes it. otherwise keep this turned off since it demands more memory.

Eevee Shadow settings

In Eevee shadows are produced with the help of shadow maps. A shadow map has a certain resolution to it making more jagged edges on a shadow with less resolution.

In essence every object in your scene is divided up into cubes based on its geometry and the shadow is tested against that instead of the original object. This way we get much lower quality on our shadows but the speed is increased significantly.

If we take Suzanne as our example. A high resolution version of her looks like the object on the left. But then we may test shadows produced by our lighting with a low resolution shadow map.

That shadow map could look something like the middle version. Even if that is not visible for us in the viewport, we will see a very jagged shadow as a result. The good thing is that it will render instantly.

A higher resolution shadow map may look something like the object to the right. A more fine-grained cubic version of our original object. The shadow will have a higher quality. But it will still be jagged.

In the shadow settings we have two resolution settings. One cube size and one cascade size. The cube size is the resolution of shadows created by point, area and spotlights.

The cascade size is used for shadows produced by sunlight.

We can say that those are the two types of shadow map depending on what kind of light source we use.

To test the cube and cascade size you can turn off soft shadows and see how jagged the shadows are. Start at the lowest resolution of 64 pixels and increase the size up to 4096 to see how the shadow is smoothed out.

The high bit depth setting increases the bit depth of the shadow map to 32 bit. In reality a lower bit depth may cause artifacts in a shadow and high bit depth may reduce the amount of artifacts.

However, if we use soft shadows a shadow is cast for every sample in the scene with a slight variation each time. All these shadows are then blended together to create a soft shadow.

Even if we have artifacts in each and every shadow they can blend so well together that we don’t need to use high bit depth. But you will have to judge every scenario.

Light threshold will reduce the amount of light cast by all lights in the scene. Essentially limiting the maximum light emitted.

Eevee Indirect lighting settings

If we once again turn our attention to the blender manual. We can read that all light in Eevee that does not come from a direct light object is considered indirect lighting.

Indirect lighting comes from primarily 3 sources. The world background, objects with an emission shader and irradiance volumes. But we also have reflection cubemaps that complement irradiance volumes. We will briefly discuss each before we jump into the actual settings.

Let’s start with the world background. The background in Eevee can be a bit problematic since it is very limited in the shadows objects can cast that is hit by world light. To get objects to cast shadows at all we need an irradiance volume in that area. But even then, the shadows created tend to not be very accurate. We will discuss irradiance volumes more below.

Sometimes we still want something like an hdri in the background to fill up parts of the scene as well as give us reflections. What we can do in this case is to set up a node graph like this for the world.

We can now control the light cast from the background separately with the background node currently set to a solid black color if we still want some ambient light

We will also get a background and reflections that we can bake into a reflection cubemap that we will discuss further below.

If you want to learn more about the light path node, you can check out my article describing it from a Cycles perspective here.

Next we have emission shaders. They are also not suitable for lighting a scene since they also require an irradiance volume to light anything. This is a much more tedious and demanding process than using lamp objects.

However, one area where emission shaders shine in Eevee is when we use them together with the bloom effect to create the illusion of a light. For instance, we can have some detail light that we only need to combine with some bloom effect.

The lighting itself can then be complemented with a point light or area light positioned just in front of the emission object if we want.

That leaves us with irradiance volumes and reflection cubemaps.

Indirect light is separated into two different categories in Eevee. Diffuse indirect light and specular. The irradiance volume takes care of the diffuse light while the reflection cubemap creates reflections with specular.

We can find the irradiance volume and reflection cubemap if we press Shift+A and go to Light probe in the 3D viewport.

An irradiance volume is placed in an area of your scene to catch light and calculate the indirect light for that area.

All dots in an irradiance volume should be in an open area. An irradiance volume should for example not overlap a wall with dots on both sides or have dots that are inside other objects.

Often it is required to use multiple irradiance volumes to fill a scene. The dots position is important since they are the points that gets sampled so that they can emit indirect light after the bake.

The reflection cubemap will sample its surrounding and create a 360 degree reflection map that nearby objects can use to display reflections on reflective surfaces according to their material. These work together with screen space reflection to create a fuller more accurate reflection.

If we get back to the indirect lighting settings we will find three buttons.

Bake indirect light will bake all the indirect light in all reflective cubemaps and irradiance volumes. The Bake cubemap only option will leave the irradiance volumes alone and just rebake the cubemaps. We can also Delete Light cache essentially removing all baked indirect light by all cubemaps and irradiance volumes.

We can turn on auto bake so that the bake is remade every time we make a change to a probe.

The order that settings are presented in can be a bit confusing because they are not grouped by the type of probe they affect. These are the settings that affect the irradiance volumes.

These are the settings that deal with reflective cubemaps:

In the display subsection we also have two preview options. Press the eye icon to enable them after a bake is complete. Then increase the size for each and an orb will be placed on each dot in an irradiance volume for the irradiance size and one dot in the middle of the cubemap size.

This allows you to preview the reflections and indirect light for each probe or position in the irradiance volume.

The diffuse bounces dictate how many diffuse bounces the irradiance volume will do to capture light. If you put this to 0 the irradiance volume is turned off. At least one bounce is required. The more bounces the more accurate the light capture will be but at the cost of bake time.

The manual says that the number of bounces more or less multiplies the bake time. Keep that in mind before you go wild with it. Personally I tend to stick to a low value like 2 or 3.

The diffuse occlusion refers to the resolution of the shadow map for the irradiance volume. A lower value may result in jagged shadows.

I found this to be much more forgiving and harder to spot than for instance the cubemap size discussed below or shadow maps when using lower values.

The irradiance smoothing in turn is a value that smooth and slightly light the influence of the irradiance volume. In some cases though this can lead to quite severe light bleed.

On the reflection cubemap side we first have the cubemap size. This is referring to the resolution of the reflection. Just like we have for the shadows. A lower resolution may result in a jagged reflection.

If we find that we get noise in our reflections after a bake we can try to increase the clamp glossy so that very high brightness areas gets clamped.

While clamp glossy helps us with noise, the filter glossy setting will take more samples from the environment while calculating the reflections and average them to minimize artifacts.

There is currently a limitation in Eevee between irradiance volumes and cubemaps. We are not able to bounce from diffuse indirect light to specular indirect light. We also can’t bounce specular to specular.

This means for example that we can’t have light reflected in a mirror to light around a corner. The mirror can only reflect reflections and not the diffuse light. The two systems of diffuse and specular don’t really talk to each other.

Instead, we will have to come up with other solutions. For instance using multiple lights to fake the indirect specular lighting.

Film settings

In the film settings we have a few somewhat unrelated settings. The first one is filter size. This setting blurs the image slightly to counter the limitations of screen and image resolution. Kind of like anti-aliasing.

Next we have the transparent checkbox. This makes the world background render transparently. It allows us to composite whatever objects we have in our scene together with other footage.

This is a very powerful feature that allow us to render objects with a perfect mask. For instance, we can render a tree, save the image file and re-import it and use it in the background of our scene without needing too many resources. And this is just one example.

The last setting in the film section is the overscan. With overscan enabled, Eevee will render a larger image internally and then crop to the camera size.

This can help fix artefacts around the edges of the frame. One example is that if we have screen space reflection not reflecting enough of an object that disappears on the edge of the image, we can use overscan to internally render a larger image so that the reflection can be included in the shot.

Final thoughts

The settings described and discussed above are those that are at the core of rendering with Eevee in Blender. There is more to the story, such as freestyle rendering that we can use together with Eevee. Or color management and motion blur, coming in Blender version 2.90.

If you are interested in freestyle you can read more about how it works in this article.

We covered some interactions between these different settings and how they relate to each other to create good-looking scenes. But there is more to uncover. I hope you learned something that got you interested enough to keep exploring on your own.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *