filmov
tv
Maggior controllo nella generazione automatica di immagini con ControlNet in Stable Diffusion
Показать описание
Per chi sostiene che i contenuti generati da IA non possano essere sottoposti a copyright: YouTube mi ha imposto di cancellare un minuto di questo video perchè mostravo, in finestra piccola e senza musica, uno spezzone di un video musicale creato con IA.
-
Se volete sostenermi, abbonatevi al canale e avrete anche dei vantaggi esclusivi:
.
Iscrivetevi al canale e attivate le notifiche per essere immediatamente avvisati quando pubblicherò un nuovo video.
-
In Stable Diffusion, oltre ai prompt testuali, esistono metodi "grafici" per controllare i risultati. Quelli più "artistici" sono:
- "canny", che fa seguire i bordi di un disegno fornito
- "scribble" e "sketch" che usano come guida un disegno approssimativo
- "depth" che fornisce la profondità 3D della scena
- "openpose" e "keypose" che forniscono la posa del corpo degli esseri umani
- "color" che fornisce i colori da seguire
Questi metodi sono molto più precisi rispetto alle descrizioni testuali, e possono quindi controllare molto meglio i risultati. Ciò è importante per le animazioni, in cui è necessario che i vari fotogrammi siano il più coerenti possibili.
00:00 Intro e disclaimer
01:26 Riconoscimento immagini fake
02:43 Pimpare uno sketch
03:28 Midjourney fotorealistico
04:10 Adobe Firefly
05:09 Objaverse, dataset 3D
06:18 Lenti motori 3D, non veloci creatori di immagini
06:50 Animazioni IA
07:41 Tanti tipi di ControlNet
10:48 Non è un tutorial
11:40 Colorista automatico
12:31 Brainstorming da uno sketch
14:41 Seguire la posa di una foto
16:10 Modificare foto in tutt'altro
16:48 Ritratto fotorealistico da punti e linee
17:54 Openpose e keypose
18.55 Rig apposito per blender
20:07 Disegnare a mano la posa
24:17 Controllo tramite depth
25:30 Controllo tramite linee disegnate
27:17 Depth map da scena 3D semplificata
29:16 Riflessioni conclusive
.
Seguitemi qui su Youtube e su:
-
Se volete sostenermi, abbonatevi al canale e avrete anche dei vantaggi esclusivi:
.
Iscrivetevi al canale e attivate le notifiche per essere immediatamente avvisati quando pubblicherò un nuovo video.
-
In Stable Diffusion, oltre ai prompt testuali, esistono metodi "grafici" per controllare i risultati. Quelli più "artistici" sono:
- "canny", che fa seguire i bordi di un disegno fornito
- "scribble" e "sketch" che usano come guida un disegno approssimativo
- "depth" che fornisce la profondità 3D della scena
- "openpose" e "keypose" che forniscono la posa del corpo degli esseri umani
- "color" che fornisce i colori da seguire
Questi metodi sono molto più precisi rispetto alle descrizioni testuali, e possono quindi controllare molto meglio i risultati. Ciò è importante per le animazioni, in cui è necessario che i vari fotogrammi siano il più coerenti possibili.
00:00 Intro e disclaimer
01:26 Riconoscimento immagini fake
02:43 Pimpare uno sketch
03:28 Midjourney fotorealistico
04:10 Adobe Firefly
05:09 Objaverse, dataset 3D
06:18 Lenti motori 3D, non veloci creatori di immagini
06:50 Animazioni IA
07:41 Tanti tipi di ControlNet
10:48 Non è un tutorial
11:40 Colorista automatico
12:31 Brainstorming da uno sketch
14:41 Seguire la posa di una foto
16:10 Modificare foto in tutt'altro
16:48 Ritratto fotorealistico da punti e linee
17:54 Openpose e keypose
18.55 Rig apposito per blender
20:07 Disegnare a mano la posa
24:17 Controllo tramite depth
25:30 Controllo tramite linee disegnate
27:17 Depth map da scena 3D semplificata
29:16 Riflessioni conclusive
.
Seguitemi qui su Youtube e su:
Комментарии