|
|
前言: Y1 D' [7 O1 ]! Y7 z' r
, o9 O/ y0 k- Q6 a6 G MikuMikuDance(简称MMD)是一款动画软件,早期视为Vocaload角色制作动画的软件,现在还经常能在B站等视频网站,或一些动画网站(某I站)看到MMD作品。
0 u* ^2 m. N9 W9 }& v 我在高中也简单学过操作这款软件以及PE、水杉等软件,学会了简单k帧、套动作、调渲染、加后期、压缩等技术,这与我学习计算机专业有很大的关系(虽然学校学的和这个八竿子打不着,或许我应该学美术去),现在已经分不清很多东西了,封面静画就是杂七杂八过气MME一锅扔的成果,得益于G渲的强大,还能看出一点效果。
- o& T! P( F; j6 a 现在我想学一些3D的开发,包括用程序读取模型、动作等,很快我就想到之前用过的MMD。2 z9 B9 P6 B6 w3 v+ H9 B
一些3D姿势估计(3D pose estimate)或许能得到骨骼位置以及PAF(骨骼间关系),但我需要知道3D动画是如何储存动作数据的,才能想到怎样将姿势估计得到的数据转化为动作数据。3 Q+ L, c" o8 o9 \2 j
因此我找了一些资料解析MMD的动作数据VMD(Vocaload Mation Data)文件,并写下这篇记录。! Z7 W* C/ x( y/ a7 |" {# X4 E
6 B8 d2 F% |" z1 S- U
根据MMD的规矩,上借物表:- k4 E! p5 T+ P ?
| 名称 | 来源 | | MikuMikuDanceE_v803 | 圝龙龍龖龘圝 | | 八重樱 | 神帝宇 | ; p# m7 H' C, ?, a; F Y; w! C* ?
+ L M2 m% S/ V y8 a8 [" b封面静画:
# w" t, Z2 o @$ I+ R| 名称 | 类别\来源 | | LightBloom | 背光 | | AutoLuminousBasic | 自发光特效 | | HgSAO | 阴影 | | SoftLightSB | 柔化 | | SvSSAO | 阴影 | | XDOF | 景深 | | dGreenerShader | G渲 | | Tokyo Stage | 场景 |
5 ?7 k* H! @9 x9 k4 i一、格式说明- t! t( ]& y/ A& u" f9 V' @7 T m
: T# W; e7 V: w/ u, S' _: c* D
首先,vmd文件本身是一个二进制文件,里面装着类型不同的数据:uint8、uint32_t、float,甚至还有不同编码的字符串,因此我们需要二进制流读入这个文件。7 p+ i6 f7 T% U7 D0 w( e
vmd格式很像计算机网络的协议格式,某某位是什么含义,区别是,vmd文件的长度理论上是无限的,让我们来看看。
4 `1 P# E* W- V1 `! _ vmd的大致格式如下:) d0 |0 ]- f. K4 Y, ?
8 Z$ Q3 [. c9 M
头部
) z8 A z) ~' h: L 关键帧数量& V. W; f! V. Q+ A. |0 q
关键帧8 ^$ g2 N |6 W, C
# W' @: W' q6 B, B* n% R
头部
4 Y: k5 o0 y4 |& C' @1 o+ C8 @, K9 |
5 E7 z0 Z+ q- i: i- r C0 s+ y 最开始的就是头部(header),看到这就有十分强烈的既视感:
9 l3 n! Q% m% e- M9 }' n1 i& w; ~ 类型
2 P4 t& r; @+ T | 长度 | 含义 | | byte | 30 | 版本信息 | | byte | 10 or 20 | 模型名称 | & m3 h& A4 n2 w/ E8 P
0 ]- [: U& N, M
其中,版本信息(VersionInformation)长度为30,是ascii编码的字符串,翻译过来有两种,一为“Vocaloid Motion Data file”,二为“Vocaloid Motion Data 0002”,长度不足30后用\0(或者说b'\x00')填充。这是由于vmd版本有两种,大概是为了解决模型名称长度不足,因此后续只影响模型名称的占用长度。. b/ P% M! C$ i, Q4 z
模型名称(ModelName),是动作数据保存时用的模型的模型名,通过这个我们可以获取到那个名称,我们知道,一个动作数据想要运作起来,只要套用模型的骨骼名称是标准的模板就可以,因此我想象不出这个名称有何用处,或许某些模型带有特殊骨骼,例如翅膀之类的,这样能方便回溯?模型名称的长度根据版本而决定,version1为10,version长度为20。编码原文写的是shift-JIS,是日语编码,这样想没错,然而我试验后发现并非如此,例如经常改模型的大神神帝宇的模型,他的模型名称用shift-JIS为乱码,用gb2312竟然能正常读出来;还有机动牛肉大神的模型,他的模型名称用gb2312无法解码,用shift-JIS解码竟然是正常的简体中文???怎么做到的?2 H' j) } m* G& J, Z/ }
骨骼关键帧(BoneKeyFrame)4 U! C) H) o6 D0 a- A- i& `
6 v6 ]8 k, P3 Q- e# s
骨骼关键帧,分为两部分:骨骼关键帧数、骨骼关键帧记录:6 \4 v; p; I1 l) {
| 类型 | 长度 | 含义 | | uint32_t | 4! t" \) I% {4 J8 ^, C
| 骨骼关键帧数量 BoneKeyFrameNumber |
- v7 w X+ V( T3 i. I1 E| 类型 | 长度 | 含义 | | byte | 15 | 骨骼名称 BoneName | | uint32_t | 4 | 关键帧时间 FrameTime | | float*3 | 12 | x,y,z空间坐标 Translation.xyz | | float*4 | 16 | 旋转四元数x,y,z,w Rotation.xyzw | | uint8_t * 16 or uint32 * 4 | 16 | 补间曲线x的坐标 XCurve 7 n" W2 g7 t# [# ?% B0 W
| | uint8_t * 16 or uint32 * 4 | 16 | 补间曲线y的坐标 YCurve | | uint8_t * 16 or uint32 * 4 | 16 | 补间曲线z的坐标 ZCurve | | uint8_t * 16 or uint32 * 4 | 16 | 补间曲线旋转的坐标 RCurve | | byte | 111 | 合计 | - R2 t9 ]0 d( G& Q9 R1 h% f
2 J/ Q) u, V( @8 u
为何要分开写呢?因为骨骼关键帧数量只需要一个就够了,而后面骨骼关键帧记录的数量会和前面的骨骼关键帧数量保持一致。, e& `; j% n. ^
% d: b& {; s% z2 D. Q: X* ? ` 我们可以查一下,每个骨骼关键帧的数量为111字节。
& o+ i$ s3 F1 K; j) T+ G旋转坐标
6 K* O5 U% e9 h, ^! p6 A; W
& z2 r6 m! q- v/ \9 Q9 p3 c7 O 一开始还没发现,旋转坐标竟然有四个,分别为x, y, z, w,急的我去MMD里查看一下,发现和我印象中没有什么差别
+ H) n/ h |3 E4 m4 |都是[-180, 180]的角度值,我用程序跑的时候,这四个值完全看不懂;幸好在英文网站上找到这个表示方法:四元数。四元数是用四个值表示旋转的方法
! N3 o. |5 J7 J, ^% `+ s, ]w+i·x+j·y+k·z9 z- i5 A9 A* T: ~2 O
,其中- i, @0 J2 d( [* Q4 L+ D( E3 J' o( w
i、j、k
( I# K, @, \. I7 n' v都是虚数,我上网找了一堆资料,并且得到了四元数转化欧拉角的公式
. C, s% J6 G d. J, Y\large X = \arcsin {(2wx-2yz)} \\ \large Y = \arctan2 {(2wy+2xz, 1-2x^2-2y^2)} \\ \large Z = \arctan2 {(2wz+2xy, 1-2x^2-2z^2)} \\
; y9 B4 |; H& l2 ~6 ]9 q8 q0 B" ]得到的是角度制,我们通过角度制转弧度制的公式即可算出和MMD中等同的角度表示。% X3 p" y! s: Q4 N# b* v
: U) e( X1 O% Y) J
补间曲线
, a7 t& {; g* j6 c
! ]: @" G; M1 x( Q5 t 为何补间曲线的类型不确定呢?上面csdn博客的教程说“uint8_t那里有冗余,每四个只读第一个就行”。说的没有问题,首先我们要清楚这个补间曲线坐标的含义。
. z: L- M: n5 o0 i% i- F 我们打开MMD,读入模型,随意改变一个骨骼点,记录帧,就会发现左下角会出现补间曲线。
f- c( h1 v. {, b0 C1 X" W 补间曲线的用处,就是自动补齐当前记录帧与上一个记录帧之间动作的变化顺序,曲线斜率越高,动作变化越快,具体教程可以参照贴吧中的教程,我们可以通过拖动红色的小x改变调节线,从而改变曲线
6 O. q; J H' h1 m每一组小红x的坐标,就可以唯一确定一条补间曲线,因此,上面的补间曲线存储的就是小红x的坐标
( `$ [ ^- v9 E& @$ ?7 o(x_1, y_1, x_2, y_2)
. q5 y4 v# N% o& I7 ]* V,其中左下角调整线的小红x是看做点1,通过程序读取,我知道,小红x的坐标取值为[0~127]间的整数,因此用1字节完全可以存下,可能是当时的设计错误,用了32位整数存,高24位完全浪费了,完全可以不用读取,因此我们可以直接读取32位无符号整数或读取8位无符号整数,然后跳过24位。
: _8 p5 T& l' j, s; ~0 I 如果曲线只有一个,那么为什么会有四个补间曲线呢?实际上不止一个,补间曲线框的右上角就有个下拉菜单可以选择,对于圆形骨骼,没有相对位置变化,x, y, z补间曲线没有用,只有旋转速率可以调节,而方框骨骼可以移动,因此x, y, z, 旋转补间曲线都有用处。
: c5 Z7 U6 u$ j1 K K$ h - O; a, x* I( N' b1 e: F
回过头来,再说一下补间曲线的坐标,在这里,是以左下角为原点,横纵方向[0, 127]的坐标轴
' T( C# I: D8 k/ t - H& z. B7 S. Y+ K9 b
. d0 }" z) L6 m2 y! ^2 H1 X
后面的格式与这个格式大同小异。
8 A! F' {1 v' x3 V5 b3 D# T: B6 h表情关键帧(MorphKeyFrame); y# v8 N$ [& ]( a
: h/ J6 |& @% ]- X' G v; ?# h0 j) C
表情关键帧分为:表情关键帧数、表情关键帧记录:
- x9 H" E. I/ ^4 G/ b- S. E+ V2 Q| 类型 | 长度 | 含义 | | uint32_t | 4 8 I$ E7 v, M6 `6 h! C# r
| 表情关键帧数量 MorphKeyFrameNumber | 类型/ {! ] z1 P' {( u" Q
| 长度2 R$ B& |$ \0 M1 s- i$ z& _
| 含义
. Z2 K! Y- L- A2 U" r7 b | byte3 N; L% F$ X8 Z* s" q, R7 ^; }
| 151 E9 [ w( o+ {( q; `
| 表情名称 MorphName
- w+ ~6 l7 @( m `- b! g! _ | uint32_t. g, s2 T- I3 s) _* {
| 4* Q D0 ^2 G( j, O; r: t+ X
| 关键帧时间 FrameTime Q2 i! r2 D" d$ O6 g: t4 l2 `
| float
: `5 c3 c3 {9 Y2 m' f1 M | 4
7 G: Z6 W6 X; z, ? | 程度 Weight P6 S5 O7 @ p9 |0 s
| byte8 [0 M% h/ O+ J6 H
| 23) b% s7 \" @ e
| 合计+ E( v# ?) {# H7 c7 E z- Y; z- ~
| 表情关键帧每个记录长度为23字节,其中程度(Weight)是取值为[0, 1]之间的浮点数,在MMD中的表现如下:. _/ ~2 j3 r' N
镜头(CameraKeyFrame)
[5 p( A0 n4 t( U* u1 A w8 l) p
) q% h& A H2 z 镜头关键帧分为:镜头关键帧数、镜头关键帧记录:
9 W2 g: V" M$ A0 y| 类型 | 长度 | 含义 | | uint32_t | 4 | 镜头关键帧数量 CameraKeyFrameNumber |
5 T9 v4 a- [( B( ~, V| 类型 | 长度 | 含义 | | uint32_t | 4 | 关键帧时间 FrameTime | | float | 4 | 距离 Distance | | float*3 | 12 | x,y,z空间坐标 Position.xyz | | float*3 | 12 | 旋转角度(弧度制) Rotation.xyz | | uint8_t*24 | 24 | 相机曲线 Curve | | uint32_t | 4 | 镜头FOV角度 ViewAngle | | uint8_t | 1 | Orthographic相机 | | byte | 61 | 合计 | 距离是我们镜头与中心红点的距离,在MMD中,我们可以通过滑轮改变0 Q4 O1 s; e4 x1 \) k' v3 a7 g
7 R7 C. G+ t$ `, u* k 这有什么用呢?可以看下面的图:
8 b b4 {6 a6 S: L) z当距离为0时,我们的镜头就在红点上,造成的效果是,当我们移动镜头的Y角度时,镜头就好像在我们眼睛上,视角是第一人称视角。可以看这里,是找镜头资料时偶然看到的。
$ k6 t" y$ x( E4 G- J7 Z7 v2 J 旋转角度不再是四元数,而是普通的弧度制角度,我猜大概是镜头的万向锁情况没那么严重,因此用弧度制就能表示。9 x% o% w1 u& e% }6 r
Curve是曲线的意思,按照之前的的补间曲线,确实还有一个相机曲线,不过一个曲线=两个小红x=4个坐标点=四字节,因此24字节有20字节的冗余,它的前四个字节就已经表达了坐标,后面20个字节是将这4个字节重复了5次。0 d3 U, q- U( G. a4 v9 ?
镜头FOV角度和透视值有关,上面的博客写的是float,但实际上我试验是uint32_t,取值刚好就是MMD中的透视值。+ m7 N' b E( w5 D7 Q5 {& \7 i
/ w" r. f* N8 K3 R
Orthographic似乎是一种特殊的相机,没有近大远小的透视关系(不确定),不过在我的实验中,它一直取值为0。和上面的已透视没有关系,当取消已透视时,透视值会强制为1。" C, ^3 U8 r3 P- Q
下面的骨骼追踪似乎没有记录,可能是强制转换成骨骼所在的坐标了。
2 {/ s* f; } g& A* i7 s 后面的格式与这个格式大同小异。+ c! r, W" j+ }$ |% y
光线关键帧(LightKeyFrame)! [/ A4 K: K6 s$ r
5 u2 l3 r F0 Y7 H
表情关键帧分为:光线关键帧数、光线关键帧记录:
( B$ K5 w* I2 h: n| 类型 | 长度 | 含义 | | uint32_t | 4 | 光线关键帧数量 LightKeyFrameNumber | | 类型 | 长度 | 含义 | | uint32_t | 4 | 关键帧时间 FrameTime | | float*3 | 12 | RGB颜色空间 color.rgb | float*3
' z' F; x, E: D8 } | 12 | xyz投射方向 Direction.xyz | | byte | 28 | 合计 | rgb颜色空间之[0, 1]之间的数,类似html的RGB(50%, 20%, 30%)这种表示方法,转换方式就是把RGB值分别除以256。$ \$ x* v% w2 i' ^: P+ X& ?5 z
光线投射方向是[-1, 1]之间的小数。正所对的投射方向是坐标轴的负方向,例如将Y拉到1, 光线会从上向下投影。
6 S5 _* _4 q/ U Q2 a! J7 j二、代码读取$ {1 {) ~6 B8 b0 R# n
* j/ K& p9 @, F
我依旧会使用面向对象的方式构建VMD类,不过构造方法无力,属性太多,我选择用静态方法添加属性的方式构建对象
# n R/ P( V' [5 ?! e. y- class Vmd:
- def __init__(self):
- pass
- @staticmethod
- def from_file(filename, model_name_encode="shift-JIS"):
- with open(filename, "rb") as f:
- from functools import reduce
- array = bytes(reduce(lambda x, y: x+y, list(f)))
- vmd = Vmd()
- VersionInformation = array[:30].decode("ascii")
- if VersionInformation.startswith("Vocaloid Motion Data file"):
- vision = 1
- elif VersionInformation.startswith("Vocaloid Motion Data 0002"):
- vision = 2
- else:
- raise Exception("unknow vision")
- vmd.vision = vision
- vmd.model_name = array[30: 30+10*vision].split(bytes([0]))[0].decode(model_name_encode)
- vmd.bone_keyframe_number = int.from_bytes(array[30+10*vision: 30+10*vision+4], byteorder='little', signed=False)
- vmd.bone_keyframe_record = []
- vmd.morph_keyframe_record = []
- vmd.camera_keyframe_record = []
- vmd.light_keyframe_record = []
- current_index = 34+10 * vision
- import struct
- for i in range(vmd.bone_keyframe_number):
- vmd.bone_keyframe_record.append({
- "BoneName": array[current_index: current_index+15].split(bytes([0]))[0].decode("shift-JIS"),
- "FrameTime": struct.unpack("<I", array[current_index+15: current_index+19])[0],
- "
osition": {"x": struct.unpack("<f", array[current_index+19: current_index+23])[0], - "y": struct.unpack("<f", array[current_index+23: current_index+27])[0],
- "z": struct.unpack("<f", array[current_index+27: current_index+31])[0]
- },
- "Rotation":{"x": struct.unpack("<f", array[current_index+31: current_index+35])[0],
- "y": struct.unpack("<f", array[current_index+35: current_index+39])[0],
- "z": struct.unpack("<f", array[current_index+39: current_index+43])[0],
- "w": struct.unpack("<f", array[current_index+43: current_index+47])[0]
- },
- "Curve":{
- "x"
array[current_index+47], array[current_index+51], array[current_index+55], array[current_index+59]), - "y"
array[current_index+63], array[current_index+67], array[current_index+71], array[current_index+75]), - "z"
array[current_index+79], array[current_index+83], array[current_index+87], array[current_index+91]), - "r"
array[current_index+95], array[current_index+99], array[current_index+103], array[current_index+107]) - }
- })
- current_index += 111
- # vmd['MorphKeyFrameNumber'] = int.from_bytes(array[current_index: current_index+4], byteorder="little", signed=False)
- vmd.morph_keyframe_number = int.from_bytes(array[current_index: current_index+4], byteorder="little", signed=False)
- current_index += 4
- for i in range(vmd.morph_keyframe_number):
- vmd.morph_keyframe_record.append({
- 'MorphName': array[current_index: current_index+15].split(bytes([0]))[0].decode("shift-JIS"),
- 'FrameTime': struct.unpack("<I", array[current_index+15: current_index+19])[0],
- 'Weight': struct.unpack("<f", array[current_index+19: current_index+23])[0]
- })
- current_index += 23
- vmd.camera_keyframe_number = int.from_bytes(array[current_index: current_index+4], byteorder="little", signed=False)
- current_index += 4
- for i in range(vmd.camera_keyframe_number):
- vmd.camera_keyframe_record.append({
- 'FrameTime': struct.unpack("<I", array[current_index: current_index+4])[0],
- 'Distance': struct.unpack("<f", array[current_index+4: current_index+8])[0],
- "
osition": {"x": struct.unpack("<f", array[current_index+8: current_index+12])[0], - "y": struct.unpack("<f", array[current_index+12: current_index+16])[0],
- "z": struct.unpack("<f", array[current_index+16: current_index+20])[0]
- },
- "Rotation":{"x": struct.unpack("<f", array[current_index+20: current_index+24])[0],
- "y": struct.unpack("<f", array[current_index+24: current_index+28])[0],
- "z": struct.unpack("<f", array[current_index+28: current_index+32])[0]
- },
- "Curve": tuple(b for b in array[current_index+32: current_index+36]),
- "ViewAngle": struct.unpack("<I", array[current_index+56: current_index+60])[0],
- "Orthographic": array[60]
- })
- current_index += 61
- vmd.light_keyframe_number = int.from_bytes(array[current_index: current_index+4], byteorder="little", signed=False)
- current_index += 4
- for i in range(vmd.light_keyframe_number):
- vmd.light_keyframe_record.append({
- 'FrameTime': struct.unpack("<I", array[current_index: current_index+4])[0],
- 'Color': {
- 'r': struct.unpack("<f", array[current_index+4: current_index+8])[0],
- 'g': struct.unpack("<f", array[current_index+8: current_index+12])[0],
- 'b': struct.unpack("<f", array[current_index+12: current_index+16])[0]
- },
- 'Direction':{"x": struct.unpack("<f", array[current_index+16: current_index+20])[0],
- "y": struct.unpack("<f", array[current_index+20: current_index+24])[0],
- "z": struct.unpack("<f", array[current_index+24: current_index+28])[0]
- }
- })
- current_index += 28
- vmd_dict = {}
- vmd_dict['Vision'] = vision
- vmd_dict['ModelName'] = vmd.model_name
- vmd_dict['BoneKeyFrameNumber'] = vmd.bone_keyframe_number
- vmd_dict['BoneKeyFrameRecord'] = vmd.bone_keyframe_record
- vmd_dict['MorphKeyFrameNumber'] = vmd.morph_keyframe_number
- vmd_dict['MorphKeyFrameRecord'] = vmd.morph_keyframe_record
- vmd_dict['CameraKeyFrameNumber'] = vmd.camera_keyframe_number
- vmd_dict['CameraKeyFrameRecord'] = vmd.camera_keyframe_record
- vmd_dict['LightKeyFrameNumber'] = vmd.light_keyframe_number
- vmd_dict['LightKeyFrameRecord'] = vmd.light_keyframe_record
- vmd.dict = vmd_dict
- return vmd
$ J/ p, O7 ~. _! w/ x0 i
% i. j6 E) P/ f( I# f复制代码
4 ?$ x# r# V8 _
! o6 O% T0 `5 t: Z, e* W: g! M" L/ }. Y& ?) \8 d9 ^
三、实验
" _1 G/ C3 |- e& t' S2 f, r1 W* U
" x4 n. T& Y& r3 s0 i 随意掰弯一些关节并注册、使用:/ c0 D; s6 Y# n, {
- if __name__ == '__main__':
- vmd = Vmd.from_file("test.vmd", model_name_encode="gb2312")
- from pprint import pprint
- pprint(vmd.dict)
- 4 i$ r( o) L1 j& I+ u
( O+ Q; u& L7 H* m- {( ~复制代码
/ d; q, Z; V3 W& W! K" R, noutput:5 Q9 q$ G: t" Q' C0 ^& b" o
- {'BoneKeyFrameNumber': 4,
- 'BoneKeyFrameRecord': [{'BoneName': '右腕',
- 'Curve': {'r': (20, 20, 107, 107),
- 'x': (20, 20, 107, 107),
- 'y': (20, 20, 107, 107),
- 'z': (20, 20, 107, 107)},
- 'FrameTime': 0,
- 'Position': {'x': 0.0, 'y': 0.0, 'z': 0.0},
- 'Rotation': {'w': 0.9358965158462524,
- 'x': 0.0,
- 'y': -0.3522740602493286,
- 'z': 0.0}},
- {'BoneName': '首',
- 'Curve': {'r': (127, 127, 127, 127),
- 'x': (0, 127, 0, 127),
- 'y': (0, 0, 0, 0),
- 'z': (127, 0, 127, 0)},
- 'FrameTime': 60,
- 'Position': {'x': 0.0, 'y': 0.0, 'z': 0.0},
- 'Rotation': {'w': 0.9191020727157593,
- 'x': 0.0,
- 'y': -0.3940184712409973,
- 'z': 0.0}},
- {'BoneName': '右ひじ',
- 'Curve': {'r': (127, 127, 127, 127),
- 'x': (0, 127, 0, 127),
- 'y': (0, 0, 0, 0),
- 'z': (127, 0, 127, 0)},
- 'FrameTime': 60,
- 'Position': {'x': 0.0, 'y': 0.0, 'z': 0.0},
- 'Rotation': {'w': 0.9568025469779968,
- 'x': 0.0,
- 'y': -0.290740042924881,
- 'z': 0.0}},
- {'BoneName': '右腕',
- 'Curve': {'r': (20, 20, 107, 107),
- 'x': (20, 20, 107, 107),
- 'y': (20, 20, 107, 107),
- 'z': (20, 20, 107, 107)},
- 'FrameTime': 60,
- 'Position': {'x': 0.0, 'y': 0.0, 'z': 0.0},
- 'Rotation': {'w': 0.593818187713623,
- 'x': 0.0,
- 'y': -0.8045986294746399,
- 'z': 0.0}}],
- 'CameraKeyFrameNumber': 0,
- 'CameraKeyFrameRecord': [],
- 'LightKeyFrameNumber': 0,
- 'LightKeyFrameRecord': [],
- 'ModelName': '八重樱',
- 'MorphKeyFrameNumber': 2,
- 'MorphKeyFrameRecord': [{'FrameTime': 60, 'MorphName': 'まばたき', 'Weight': 1.0},
- {'FrameTime': 60,
- 'MorphName': 'あ',
- 'Weight': 0.36000001430511475}],
- 'Vision': 2}
6 f% f7 Y& D0 O/ I
& Q7 o4 [8 U2 k复制代码0 B7 n% j! p0 n) M% u) ]
因为前面提到的编码模式,我选择用gb2312解码,在很多(也许是大部分)动作数据都会报错,可以去掉编码方式:& K1 N# K# v; V3 A- P$ V; r
- vmd = Vmd.from_file("test.vmd")- {/ m& }# H- {/ v
6 Z6 \6 Z& n) r* e+ ~2 V复制代码
- [5 t5 _/ P7 V. Y/ i% f3 \ 我们没有移动方块骨骼,因此位置信息都是0。
6 o X$ r$ K7 S6 F6 |8 B9 N8 D 不喜欢看欧拉角的话,可以写一个转换方法:+ d5 Q& a2 w( Y
- @staticmethod
- def _quaternion_to_EulerAngles(x, y, z, w):
- import numpy as np
- X = np.arcsin(2*w*x-2*y*z) / np.pi * 180
- Y = -np.arctan2(2*w*y+2*x*z, 1-2*x**2-2*y**2) / np.pi * 180
- Z = -np.arctan2(2*w*z+2*x*y, 1-2*x**2-2*z**2) / np.pi * 180
- return X, Y, Z
- @property
- def euler_dict(self):
- from copy import deepcopy
- res_dict = deepcopy(self.dict)
- for index, d in enumerate(res_dict['BoneKeyFrameRecord']):
- x = d["Rotation"]["x"]
- y = d["Rotation"]["y"]
- z = d["Rotation"]["z"]
- w = d["Rotation"]["w"]
- X, Y, Z = Vmd._quaternion_to_EulerAngles(x, y, z, w)
- res_dict['BoneKeyFrameRecord'][index]["Rotation"] = {
- "X": X,
- "Y": Y,
- "Z": Z
- }
- return res_dict
) R* k4 q: c* r
/ M6 d+ S6 Y) x3 f复制代码' M9 B, L1 R! J
这样只要调用:
' p( H# s8 T( a8 ]8 \- N0 [6 F& U- vmd = Vmd.from_file("test.vmd")
- from pprint import pprint
- pprint(vmd.euler_dict)% v8 g4 D( E0 j" z. V
6 V, z( E5 {# i- o' r) o
复制代码
* [# |' @2 e; k5 X4 G2 H$ R即可得到转换成欧拉角的结果,同样的方式还可以编写转换RGB、弧度、角度等
0 b; j: ]* [- \- r9 W s: f python内置的json包可以很方便得将字典转换成json格式文档储存。
3 z6 `! B$ B8 t- a: l 我们也可以试着写一些将VMD转换成vmd文件的方法。
8 f, Q- O5 w) E' j: U' v3 a0 K四、总结
2 j- u0 O6 F9 k7 e% K ?/ D2 y* b% K
通过学习VMD的文件结构,大致了解了储存动作数据的格式和一些方法,或许可以类比到一些主流的商业3D软件上。" v) X' T8 `& S. `. K
读取程序并不难,我写程序的很多时间都是查二进制操作消耗的,通过这个程序,还巩固了二进制操作的知识。! ^2 P2 U, }5 w7 z; D% X9 ?! l
I+ I8 L" Y' z
% ]* L8 ^7 t* e0 p K: V |
|