TIKTOKとかでよく見る1フレームずつがバラバラになってアニメになって再度つなぎ合わされたような映像が作れないかなとRunwayを触り始めた。プロンプトで画面の質感を決めるところはアクロバティックな驚きがあるものの、それを基にVideo to Videoするところは最初の画像から逸脱しにくいようで、絵がところどころ動いてます、という感じにしかならない。もっと1秒ずつにぐにゃぐにゃになるものを求めていたのに!という不満があって、結局取り込む動画ファイルを事前に加工するようなことをしている。
生成AIが先人の映像なりテキストにフリーライドして作られているという話は聞くし、可能な限りそういうものと手を組まないほうがいいのだが、ことエフェクトという部分で使ってみたくてしょうがなくなった。プロンプトを書いて動画するTexttoVideoは、出来上がりが何か一様になってくるので今後も使わなさそうなんだけど、自分で適当にとった風景の動画がRunwayを通じて妙な動画になるときの喜びのようなものはある。
ちなみにHuaweiのPCで動画編集ソフトから吐き出したMP4をRunwayに取り込んでいるんだが、動画編集ソフトから出すところは一瞬で終わるので俺の持ってるHuaweiのPCいいね、という気づきもあった。メルカリでやれRTX3060だのの載ったクリエーター用のノートPCを探したりもしていた(金欠で二の足を踏んでいた)。
一方Runwayで動画を吐き出すには最初の取り込みの時間と、プロンプトを書いてイメージを決めた後のレンダリングの時間がバカにならない。暇になってしまうのでこういう文章を書いて気を紛らわせているのである。