なんか他にも考えをまとめたい事あった気がするけど、このトピック考えること多くて喋り出すと永遠に…って感じだ。
何をリスクや脅威だと感じるか、現行の法解釈と倫理の観点でどこが「非常識」なラインなのか、とか……色々なことが……バズりポストや声の大きそうな人と、私の認識や前提が違う…。異端審問にかけられそう。
以下 発散した考えのメモ
・AIに仕事を奪われる→奪われない。AIに期待し過ぎ
・クリエイティブがAIに代替される→されない。AIに最終成果物は任せられない。結局人間にしか上手く作れない領域があるし人の介在なしでは成り立たない
・AI学習を許すことは他の人の仕事を奪う事に加担してる→してない
・AIに学習されると公式に迷惑かける→さすがに飛躍しすぎている理論。チーズを食べるあなたは牛乳の消費量を上げてて牛の家畜化を推進し動物虐待に直接的に関与してる、って言われるくらい遠い
・二次創作は特にAI対策しないの非常識→失礼クリエイターのマナー講師
・ウォーターマークやサイン→入れるのが当たり前になるのは良いことね
・逆に上記を入れない奴は云々→他人のスタンスに口出すべきじゃない
・学習阻害措置→学習に同意してるプラットフォームでやるのはちょい疑問
・意図的なモデル破壊措置→入力フォームに不正な値入力してシステム壊してやる!とかウィルス仕込んでやる!とかと同義にならないか心配。垢BANとかされませんように。
・この世にクリーンな生成AIなど無い、全て違法。だから使ってる人は云々→何を違法と断じるか意見の相違ありそう。生成AI多過ぎるし正直私は全てを精査できてない。でも生成AI技術が今時点でも違法行為と非難されて然るべきもの且つ全て倫理的な問題を孕んでいるんだとすると、パッと目に付く限りで生成AIを提供してるGoogle Gemini,Amazon Bedrock,Microsoft Copilot(GPT-4のLLM活用),Apple Intelligence,Adobe Fireflyあたりが大々的に非難されずに普通に営業出来てて企業や一般利用が進んでるのって社会的に変かも。自分がある程度信頼して利用してるのもその辺りだけど、それらを利用してる個人も他企業もみんな犯罪者という理論だと糾弾対象かなり広いなとも。画像生成する時だけ違法、みたいな理論は通らないとも思うし。
・生成AIの基盤学習モデル(データセット)にCSAMなど倫理的に問題のあるデータが含まれているから肯定できない→全ての生成AIに現在も?というと問題視の主語が広い気もするし話題になった StableDiffusionのLAION-5Bのことならだいぶ前にデータセットの見直しで削除されていたはず(使ってないので詳しくないが)。 大手企業が提供する生成AIも当然この辺対策してるはすだけど、仕組み的に完全に一辺の曇りもなく取り除けているかは定かじゃないと思うし私が個人で確認する術が無い。不適切なものをブロック&排除する努力して、排除し切れてない可能性がある責任を、それらを確認・復元できない利用者や、可能性を0%に出来なかった開発者のものとして倫理観に問うかは意見が分かれそう。
・作品と作家名紐付けで学習されてるリストが流出してた→Midjourneyの件のことなら普通に良くない認識。そういう学習のさせ方するなら作家に許可取るかペイが発生しないとおかしいと思う。その後どうなったのか追えてないけどきな臭いイメージが離れず、やり方として同意できないので自分で使う選択肢には入らない
Adobe Fireflyもクリーンじゃない→Fireflyの学習元であるAdobeStockに悪い人間が定期的に権利侵害コンテンツ勝手に上げるからFirefryもそれ食っててクリーンじゃない的なことならAdobeが可哀想かも。権利侵害コンテンツは定期的に取り除いて再学習してたり、もし学習に使用したら作者にインセンティブを払う仕組みにしたりとAdobeはかなり真面目にクリエイター寄りのAI作ろうと頑張ってる印象。AdobeStockは今のXと同様に学習に使用する事を同意事項として明記し、嫌であればアカウント消して撤退する自由がユーザー側にある。(※インセンティブの件もあり全てのAdobeStockデータが学習に使用されるわけではない)その上で、学習元に許可を取った、権利侵害をしない、クリエイターに還元する生成AIのモデルという立て付けのよう
・規約を途中から変えるなんて嫌々同意させられたも同然→権利者の同意を取る方向に動いてるのは良いことだと思ったけど…。あとこの社会、様々なサービス規約って情勢にあわせて変わることよくあると思う
・クリエイターなら誰も生成AIに学習されたくないはず→個を特定できない基盤モデルに組み込まれることは自分はわりと何とも思ってない。それか例えば「クリエイターに許可取って絵描き用学習モデル作ります」とかそういう開発プロジェクトがあるなら自分はむしろ自身の成果物が何かの役に立つなら学習に協力したい気持ち。後世の技術の底上げとか、少しでも後進が楽出来る方とか、車輪の再発明を回避する方とかに活かして欲しい
・AIを一度でも使用したクリエイターの信用は地の底まで落ちる→落ちてないけど落とそうと周りから燃やされて滅茶苦茶されてるな、と思う
・AIを使うのはズル→「何」に「どこまで」って観点はあるだろうけど多分アナログからデジタル主流に切り替わった時も、3Dモデルを下地に使うのが普及した時も、努力してない・お前の画力じゃない・ズル って言われたと思う
・AIは他人の努力にタダ乗り→先人の知恵の上に更に発展と捉えるか、他人の〜タダ乗りと捉えるか解釈の問題だと思うけど、「何の努力もしない能力も無い人がAI使ってラクしてタダ乗りラッキー✌️」を大多数として想定し過ぎだと思う。普通に努力の下地と能力のある人が普遍ツールとして整備されたAI使って更にオリジナリティを加えながら成果物としてのクオリティを上げるのに使うのがこれから来る未来な気がする。そして前者のような人は成長しないままなら後者に絶対敵わないから仕事も奪われないと思う
・AIが発展するなら努力もスキルも無駄→もしかしたらパーソナルAIとか簡単に作れる未来くるかもだし、その時点でスキルや能力的下地ある人が圧倒的有利だから積み上げて来たものは無駄にならない認識。そういうのが出て来たら自分も絵描く時に使ってみたい
・生成AIは出力物においても信用できない著作権侵害ツール→そもそもAIは不完全で最終成果物を任せるのに適さない。扱うなら嘘や何かにソックリなものが出てしまう可能性のある技術という理解が必要(現状特に文)。だからってAIがやったので悪くないもんとはならないので、生成物の公開に当然「人」が責任持つべき。明らかに他人の著作物を大部分で含んでいそうなやつをよく精査せずそのままGOを出してしまうのはネットリテラシー低いとかと同レベルで語られるようになるかも