在朋友圈中发布数字人图片,可以使用相关的数字人生成工具来制作。目前市面上有很多数字人生成工具可以免费使用,如头像生成器、情侣头像生成器、网友神器生成器等等,这些工具都可以在相应的网站或App中使用。具体步骤如下:
1. 打开相关的数字人生成器网站或App,并选择自己喜欢的模板。
2. 按照模板的要求,上传自己的头像或其他图片,进行个性化调整。
3. 点击生成按钮,等待数字人生成完成。
4. 下载生_
1.头部
1.1头部解剖与断面观察要点
1.2头部断层表现(数字人体彩图1~彩图13)
2.颈部
2.1颈部解剖与断面观察要点
2.2颈部断层表现(数字人体彩图14~彩图23)
3.胸部
3.1胸部解剖与断面观察要点
3.2胸部断层表现(数字人体彩图24~彩图46)
4.腹部
4.1腹部解剖与断面观察要点
4.2腹部断层表现(数字人体彩图47~彩图66)
5.盆部
5.1盆部解剖与断面观察要点
5.2盆部断层表现(数字人体彩图67~彩图88)
6.四肢
6.1四肢解剖与断面观察要点
6.2四肢断层表现
(上肢:数字人体彩图23----彩图88)
(下肢:数字人体彩图89~彩图111)
7.脊柱
7.1脊柱解剖与断面观察要点
7.2脊柱断层表现(数字人体彩图14~彩图81)
上一篇深入研究了UV的重要性。这一篇继续用实例研究:1、UV和BODY PAINT 三维绘图的关系;2、简单模型的UV展开方法。
警告: 这是一篇入门教程,我用非常磨叽的方式来讲,高手不要看,否则容易呕吐!
1、在场景中建立一个立方体。然后按C 转换多边形。
2、转换到BP UV EDIT 中,点击一个面(注意,在哪一个窗口,按哪一个按钮,上两篇已经说了),右侧出现这个面的UV。
3、在左侧再点击一个面,右侧还是一样。?? 什么原因?
4、我们再转到 BP BODY PAINT 绘画模块中(点右上角--界面)
在三维模型上绘制贴图,一是必须有模型(废话);二是模型有UV(有了);三是必须有材质(决定画的是哪一类,颜色,反射,高光等);四是材质必须有贴图(画布大小)。点击下面的材质面板。
5、双击出现一个材质球。图标为×,表示不能编辑,点它一下,变成笔就可以。材质建立完成。
下一步,点击这个材质球,在颜色通道选择--纹理--- 创建纹理 (不是载入现成的纹理)。
6、宽度高度为1024( 一般为256、512、1024、2048、4096等方形尺寸,贴图越大越精细,但越消耗资源),选个颜色--黄色。
7、现在场景中有一个材质,该材质颜色通道有一个大小为1024×1024像素的贴图,贴图的颜色为黄色。
8、但是立方体不是黄色,点击左侧工具架上的笔,在物体上也画不了,?
9、点击右上角--界面--启动,回到原始界面看看。发现,原来,材质是建立了,但是没有赋予立方体。现在把材质赋予给立方体。
10、转回BP BODY EDIT,发现立方体已经变成黄色,点击右下角的“对象”面板,发现材质标签有了。
(实际上不用转到启动界面,在BP BODY PAINT中,直接把上面的材质拖到--对象面板中的立方体就行了。
11、点击左侧工具的笔刷,在笔刷面板选择一个笔刷图案,调节尺寸。快捷键是 ". +]"为变大,".+["变小。 翻译过来是先按住“点”,然后再按“】”键是放大笔刷尺寸。
12、点击颜色面板,选择红色。
13、注意:在一个面上画一个圈。你会发现,其他的面也自动出现一个圈??? 这是为何?
14、转回 BP UV EDIT ,把UV标签拖入到右边窗口,右边窗口也出现了纹理。
现在你应该明白了吧:左边的立方体模型六个面的UV是重合在一起的,也就是说,六个面共享一个贴图。在特殊情况下是可以用的,但是,一般情况下,一个模型的不同位置纹理是不一样的,要求与之对应的UV不能重合,所以必须把重合的“UV拆开。”
15、删掉模型的材质标签。选择面选择,点击侧面一个面。右侧显示对象的UV。
16、点击“UV多边形”按钮,按E,把它拖出来,放到一边。
17、在点击面选择按钮,选择相邻另一面。同上操作,把它的UV也移到一边。
18、同理,把六个面全部拆开,原则上,只要拆开不重合,放到哪里都可以。但是为了能够看出哪个UV是侧面,哪个是顶面,所以,还是摆放一下为好,能看出对应的层次。如下:
19、但是六个UV已经超出了“UV0-1”纹理贴图范围,如果贴图不设定为“平铺”,会得不到纹理。所以,点击“UV多边形”按钮。按0,选择框选,选中所有的UV,点击下面--命令面板--匹配画布。他们就排列进来了。
20、转回BP BODY PAINT ,重复步骤5,建立一个材质球,再建立一个蓝色的纹理贴图。
21、点击面板对象,把上面的材质球,拖给它。
22、点击颜色,为画笔选择绿色。
23、点击左侧画笔,在笔刷面板选择一个笔刷,调整笔刷尺寸。
24、在一个面画“1”,发现别的面没有出现。
25、在另一个面画2,同理画3
26、依次画
27、点击BP BODY PAINT 窗口下的纹理窗口(左上角)点击一下,下面的蓝色贴图。你明白了吧!
如果把对应1的UV和对应2的UV重合到3的UV处,模型纹理 会怎样?
总之,UV编辑的基本规则如下:
1、UV避免相互重合,重叠的UV会造成纹理贴图显示的重叠或拉伸不正常显示效果。
2、UV伸展尽可能保持比例,避免纹理贴图的拉伸变形。
3、尽可能少拆分,保证“UV的逻辑联系”。为的是贴图绘制平滑过渡、自然。因为纹理接缝处的颜色和纹理很难拼贴在一起。接缝要尽量安排在不容及观察的地方。
4、保持UV在0-1纹理空间中,并进行排列,有效利用0~1空间。超出会出现毛病。
声明: 文章内的图片大部分来自网上,研究学习之用,没有商业用途。自己绘制的图表版权所有。
【引言】
百度C4D吧友问我的问题: 多通道-深度怎么回事?如何在AE中利用深度贴图制作动态聚焦?
这个深度贴图与我前面讲的凹凸贴图、法线贴图是两码事。前者属于材质方面的技术,目的是增加模型表面细节。而下面所要研究的 深度贴图 属于合成方面的分层渲染方面的内容。
说道分层渲染,那就多说一些吧:三维软件渲染一般有 分段渲染 和 分层渲染 之说。
分段渲染 一般是指复杂动画的分解。是以降低渲染难度和节约计算资源为目的,可以分为分镜头或分场景等而制作得一些动画片段。最后,在视频编辑软件中进行合成和剪接。
分层渲染 一般是对静帧或图像序列渲染采取的一种 “保险” 的渲染方式。分层渲染的静帧是一个由漫反射、高光、阴影、阿尔法等多层独立的图层合成图像文件。它的好处就是通过独立各层,能够尽可能多地存储一些场景信息,为以后修改调整,提供数据基础。比如,一张高分辨率的静帧图像,经过4、5个小时的渲染,经客户看过以后,客户对阴影不满意或认为物体反射太强了,再或者对某些颜色不满意,你怎么办?如果你没有分层渲染,你只有两个办法:一是到三维场景调整材质参数,重新渲染,浪费时间啊;二是调入PS中,使用各种技巧调整,如果没有其他通道的辅助,效果不一定好,质量差啊。但是如果你采用保险的分层渲染,那就非常轻松了。你可以找到独立的阴影层和反射层,单独去调节。当客户满意后,合成输出,非常高效。
总之,分层渲染它为后期合成提供了必要的数据信息。所以,特编写一个专题,研究一下C4D分层渲染技术。从哪里开始呢?就从吧友问我的问题: 多通道-深度 开始吧!
【研究】
c4d中的深度通道,它和三维常说的“Z深度通道”所说的是不是一回事呢?
一、什么是Z深度通道:
什么是Z深度呢?其实它是一张用黑白灰,描述Z轴方向远近的贴图。
在二维空间的里,X轴代表着横向空间,而Y轴代表着纵向空间,没有Z方向。例如:Photoshop等,这样的软件。但是在三维空间工作时,除了X轴和Y轴,你还要加上Z轴,它代表了深度的概念。
一张z-map(Z通道贴图)是一个灰度的图像,与Alpha通道图像类似,用来保存深度数据(它虽然看似一个灰色图像,但它是提供渲染器的描述场景深度的数据文件)。比如一个Alpha通道图像使用8位 256级灰度来决定遮罩,透明度等等;而在一个z-map(Z通道贴图),场景里的每一个像素都基于他们和摄像机的距离被赋予了0-255的灰度值。一般情况向,距离摄像机最近的物体显示白色,而距离摄像机最远的物体显示黑色。
Z-MAP通道贴图 (白色表示距离摄像机近,黑色距离摄像机远)
在一个平面上,如果定义3个方向:X、Y、Z。这就能模拟假的三维空间。X、Y就是左右、上下,而Z就是纵深,在屏幕上表现为垂直于屏幕由前到后。所以,利用3D软件的概念,在2D软件里面增加了Z通道的信息,就可以“模拟”地表现出纵深方向。技术人员真是太聪明了!
二、深度贴图有什么用?
最常用的是使用它来制作和控制一个模糊的操作,比如在二维的图像上制作,3D环境雾,景深(模拟一个真正摄像机所看到的)等效果。
1、作用在景深上:
2、作用在深度遮罩上,如果后面有一个图片,就能制作出三个球依次从背景图片后面冲出的特效。
3、作用在三维环境雾上。
总之,以上是在一个二维图像基础上,利用它的Z通道(模拟的深度),在合成软件生成的特效。这比在三维软件中制作要快速和控制灵活的特点。(如果在三维软件,渲染会非常慢的)
三、如何创建:
Z通道贴图就是一张灰度贴图,原理是“白近黑远”。应该有两种来创建z-map(Z通道贴图)的方法:一是在三维软件里,用三维软件本身来制作z-map(Z通道贴图),因为这是最正确的、最准确的方法;二是在PS中使用渐变来绘制z-map(Z通道贴图)。如果制作静态画面还好说,如果摄像机移动的图像序列,利用PS绘制非常麻烦和不准确。
下面举例子如何创建含有Z通道的文件。
1、打开C4D,在场景下建立三个球体。
2、打开渲染设置,勾选保存。填写文件名称,注意格式要选择RLA或RPF(这是什么格式呢,详见后面的补充说明),深度为16位。(也可以8位)
3、点击后边的“选项”按钮,勾选如下。那么在渲染的时候,这些信息也就保存到RLA图像文件中。
4、按SHIFT+R渲染。 生成DEMO.RLA图像文件,其中Z通道信息也保存到该文件中。简单吧?
四、怎么应用呢?
RLA或RPF文件,PS打不开,AE却能。所以,这里就谈谈在AE中的应用吧。
1、打开AE ,建立一个合成。输入上面生成的DEMO.RLA 。(我忘了生成ID和阿尔法通道了,在效果上有点小影响)
2、利用Effect(效果) -> 3D Channel(3D 通道) -> 3D Channel Extract(3D 通道提取) 可以吧把Z通道从图像中提取出来。
3、Depth Matte(深度蒙板)
4、Depth of Field(景深)
5、Fog 3D(雾化 3D)
五、C4D中的深度是什么意思?
研究了半天,那么C4D中的“深度”是怎么回事呢?
1、还是场景中的三个小球。
2、 建立摄像机,把最前端的蓝色球拖到焦点对象栏中。摄像机的焦点就对准它。
3、转到摄像机细节面板,勾选景深映射-背景模糊。开始为0,终点为1000左右。
(焦点对准的蓝色球,从蓝色球到摄像机为前景,从蓝色球到远处为背景)
4、勾选多通道,添加深度。景深是自动添加的,不钩选,这样生成的图像就不模糊,没有景深。
勾选保存,BALL.JPG。勾选多通道图像,名称为BALL格式为JPG 。
5、 注意启动激活摄像机 ,按SHIFT+R渲染。生成两个图像文件如下:
6、如何使用呢?
打开AE 建立新的合成。把BALL图片文件和它的深度贴图拖入,把深度贴图放在底下,并隐藏。
7、点击BALL 为其添加下面的滤镜特效。
8、点击模糊图--图层,选择深度贴图。
9、设置好模糊半径,调整模糊焦距。
10、增大模糊焦距。
11、再增大模糊焦距。
如果你对模糊焦距进行设置关键帧,渲染将生成从前到后焦点后移的视频。这比在三维软件里制作要快速、高效。
12、下面是官方关于深度贴图的截图。 注意看:在焦点上,深度贴图为黑色,远离焦点却是白色。
【后记】
通过本文,你是否意识到单单学习C4D知识是远远不够的,作文的功夫在作文之外啊。还有好多三维和合成基础理论去研究和学习。对于自学者,只能一边学习实例,一边从中悟出道理啊!难啊!
【补充一】
1、RPF 文件 RPF(Rich Pixel 格式)是一种支持包含任意图像通道能力的格式。设置用于输出的文件时,如果从列表中选择“RPF 图像文件”,那么会进入 RPF 设置对话框。可以在该对话框中指定写出到文件中所使用的通道类型。RPF 文件作为选中的格式替换 RLA 文件来渲染动画时,需要进一步的后期制作或效果实现。界面
“标准通道”组 标准通道是 RGB 颜色通道和 alpha(透明度)通道。每通道位数—选择 8、16 或 32 位“浮点”作为每通道的位数。默认设置为 8。存储 Alpha 通道—选择是否保存 Alpha 通道。默认设置为启用。预乘 Alpha—启用该选项后,预乘 alpha 通道。默认设置为启用。如果在后面的合成中需要使用该图像,那么预乘会保存计算时间。详细信息请参见预乘 Alpha。 “可选通道”组 对输出 RPF 文件,可以生成额外的通道(并可以在渲染帧窗口中查看它们):Z 深度—在重复的从白到黑的渐变过程中,保存“Z 缓冲区”的信息。渐变表明了对象在场景中的相对深度。材质效果—保存由指定给场景中对象的材质所使用的“效果通道”。“效果通道”是“材质编辑器”中的一种材质属性设置,在进行 Video Post 合成时需要使用。每个“效果通道 ID”都以不同的随机颜色显示。对象—使用“对象属性”对话框保存指定给对象的“G 缓冲区对象通道 ID”。该“G 缓冲区 ID”在进行 Video Post 合成时使用。每个“G 缓冲区 ID”都以不同的随机颜色显示。UV 坐标—以渐变的颜色保存 UV 贴图坐标的范围。该通道显示贴图可能出现的地方。注意:“UV 坐标”不会在应用了“UVW 贴图修改器”的对象上显示,除非使用该坐标的贴图被应用。法线—以灰度渐变保存法线向量的方向。浅灰色曲面有指向视图的法线。深灰色曲面有指向远离视图的法线。非钳制颜色—保存图像中颜色超过有效颜色范围并被修正的区域。这些区域以明亮的饱和颜色显示,并且通常以反射高光环绕。覆盖—保存曲面碎片的覆盖,从曲面碎片中可以获得其他“G 缓冲区”的值(“Z 深度”、“法线”等等)。“Z 覆盖”值的范围从 0 到 255 。要查看“Z 覆盖”, 在“设置”子对话框中检查了“Z 覆盖”之后渲染为 RLA 文件,然后在渲染帧窗口的“查看通道”下拉列表中选择“Z 覆盖”。“Z 覆盖”的功能主要是提供给开发者使用的,而且它能够帮助实现“Z 缓冲区”的抗锯齿。节点渲染 ID—根据每个对象的“G 缓冲区对象”通道(在“对象属性”下可以找到),以实心颜色保存对象。颜色—保存由碎片的材质明暗器返回的颜色。该通道以实心颜色显示任何透明碎片。透明度—保存由碎片的材质明暗器返回的透明度。具有任何透明度的碎片都作为实心灰色对象进行渲染。速度—保存相对于场景坐标中场景的碎片的速度矢量。子像素权重—保存碎片的子像素权重。该通道含有由碎片提供的全部像素颜色的分数。碎片的太阳提供了最终的像素颜色。给定碎片的权重考虑了碎片的覆盖以及在给定碎片之前的的任何碎片的透明度。子像素遮罩—保存子像素的 alpha 遮罩。该通道提供每像素 16 位(4 x 4)的遮罩,它用于抗锯齿 alpha 合成。使用 combustion 合成产品时,该遮罩特别有用。
2、RLA 格式
它是一种流行的 SGI ? 格式,它具有支持包含任意图像通道的能力。设置用于输出的文件时,如果从列表中选择“RLA 图像文件”并单击“设置”按钮,那么会进入“RLA 设置”对话框。可以在该对话框中指定写出到文件中所使用的通道类型(格式类型)。
界面
“标准通道”组
标准通道是 RGB 颜色通道和 alpha(透明度)通道。
每通道位数
选择 8、16 或 32 为浮点数作为每通道的位数。默认设置为 8。
存储 Alpha 通道
选择是否保存 Alpha 通道。默认设置为启用。
预乘 Alpha
打开时,预乘 Alpha 通道。默认设置为启用。
如果在后面的合成中需要使用该图像,那么预乘会保存计算时间。有关详细信息,请参见。 。
“可选通道”组
对于输出 RLA 文件,可以生成八个额外的通道(并可以在“渲染帧窗口”中查看它们):
Z 深度
在重复的从白到黑的渐变过程中,显示“Z 缓冲区”的信息。渐变表明了对象在场景中的相对深度。
材质 ID
显示指定到场景中对象的材质所使用的效果通道。“效果通道”是“材质编辑器”中的一种材质属性设置,在进行 Video Post 合成时需要使用。每个“效果通道 ID”都以不同的随机颜色显示。
对象 ID
使用“对象属性”对话框显示指定给对象的“G 缓冲区对象通道 ID”。该“G 缓冲区 ID”在进行 Video Post 合成时使用。每个“G 缓冲区 ID”都以不同的随机颜色显示。
UV 坐标
以渐变的颜色显示 UV 贴图坐标的范围。该通道显示贴图可能出现的地方。
注意“UV 坐标”不会在应用了“UVW 贴图修改器”的对象上显示,除非使用该坐标的贴图被应用。
法线
以灰度渐变显示法线向量的方向。浅灰色曲面有指向视图的法线。深灰色曲面有指向远离视图的法线。
非钳制颜色
显示图像中颜色超过有效颜色范围并被修正的区域。这些区域以明亮的饱和颜色显示,并且通常以反射高光环绕。
覆盖
这会保存曲面碎片的覆盖,从曲面碎片中可以获得其他“G 缓冲区”的值(“Z 深度”、“法线”等等)。“Z 覆盖”值的范围为 0 到 255 。要查看 Z 覆盖,先在“设置”子对话框选中“Z 覆盖”,再渲染至 RLA 文件,然后在“渲染帧窗口”的“查看通道”下拉列表中选择“Z 覆盖”。
“Z 覆盖”的功能主要是提供给开发者使用的,而且它能够帮助实现“Z 缓冲区”的抗锯齿。
“描述信息”组
该信息与文件一起保存。
描述
可以在此输入描述文本。
作者
可以在此输入姓名。
【补充二】
一如何导出通道文件?
1、建立下面场景。
2、建立摄像机,并为三个球体建立合成标签。分别设置对象缓存的ID号为1,2,3。
3、打开渲染设置。勾选多通道,添加三个对象缓存,分别设置1,2,3,与上面相互对应。再添加深度通道。
4、在保存面板,勾选多通道图像保存,并勾选下面几项。文件名为AAAA.PSD
5、SHIFT+R渲染。可以看到对象缓存和深度通道生成。
6、找到这个文件。
7、用PS打开,发现漆黑一片是吧?那几个通道呢?
8、其实,那几个通道文件在通道面板下面。
二、如何生成独立的通道文件?
这是你问的第二个问题。
1、其实真的很简单。起名字为BBBB.PSD。把下面几项勾掉即可。
2、SHIFT+R渲染。可以看到对象缓存和深度通道生成。
3、看看吧,四个通道每个都是以独立的文件产生的。
4、用PS分别打开看看。这是深度通道: 黑色代表在摄像机焦点上,白色远离摄像机焦点。
5、以下是三个对象缓存通道。
AI数字人和虚拟人的区别如下:
生成方式不同 。AI数字人通过采集、分析、处理人类的数据进行生成,虚拟人通过计算机程序模拟人类的形象和行为进行生成。
应用场景不同 。AI数字人主要应用于人机交互、智能机器人等领域,虚拟人主要应用于娱乐、医疗等领域。
技术难度不同 。AI数字人的生成需要大量的数据采集和处理工作,虚拟人的生成过程相对简单。
形象不同 。AI数字人形象更接近于真人,虚拟人形象更接近于卡通或者3D动画模型。
能力不同 。AI数字人具备语言、动作表达等一系列基础人形能力,虚拟人只具备基础表达能力。
Ai数字人是现实生活中的人在数字世界中的映射。本质上是真实人在数字空间的另一个延伸。
虚拟人是在虚拟世界中捏造而成的,可以根据主人的个人意志产生。
现象级虚拟人柳夜熙,只以短视频短剧的形式出现在大家的手机屏幕
虚拟偶像-AYAYI,是使用Unreal引擎造出来的特别拟真的Metahuman形象,目前抖音及各大平台输出的仅为图片形式,并不能代表虚拟人。
新华社AI合成主播-新小浩,是通过语音合成、唇形合成、表情合成以及深度学习等技术,克隆出具备和真人主播一样播报能力的“AI 合成主播”。
AI数字人“李未可”,不同于其他虚拟人的侧重都在CG动画这一块,即追求外表的好看、逼真。“李未可”,运⽤了虚拟数字⼈交互技术落地在AR眼镜上,并和⽤户在运动场景中形成互动。主打和用户产生互动,真正实现虚拟与现实相结合。
数字人是运用数字技术创造出来的、与人类形象接近的数字化人物形象。
1、狭义的数字人
狭义的数字人是信息科学与生命科学融合的产物,是利用信息科学的方法对人体在不同水平的形态和功能进行虚拟仿真。其研究过程包括四个交叉重叠的发展阶段,“可视人”“物理人”“生理人”“智能人”,最终建立多学科和多层次的数字模型并达到对人体从微观到宏观的精确模拟。
2、广义的数字人
广义的数字人是指数字技术在人体解剖、物理、生理及智能各个层次,各个阶段的渗透。需要注意的是,数字人是正在发展阶段的相关领域的统称。
数字人和机器人的区别:
1、功能不同
机器人在一定程度上可以代替人的部分工作(如机械臂),但是其无法完成某些复杂的工作或者需要人类参与才能完成的动作;数字仿真则不然,它可以完全替代真人去执行一些复杂的任务并且不需要人类的介入即可完成任务,因此具有更大的灵活性。
其次在成本上也有很大的差别:由于机器人要实现各种功能的集成往往价格不菲且体积庞大难以运输及安装调试;而数字仿真是基于电脑程序控制下的自动运行过程无需人工干预成本低廉而且便于携带易于安装和维护。
2、作用范围不同
对于军用领域的用途来说:机器人主要用于战场上的侦察、指挥和控制等方面;数字仿真则是用于训练士兵的战术技能以增强他们的作战实力。
以上内容参考 百度百科—数字人
转载注明:http://www.matsui-shiho.com