• オーバースキャンとは?

    オーバースキャンとは、「最終出力サイズよりも少し大きめに書き出す」ことで、後からトリミングしたり、手ブレ補正・スタビライズをしても画質が劣化しにくくするテクニックです。

    今回の計算式はこちら

    オーバースキャンmm数 =(変更後の解像度 ÷ 元の解像度)× レンズのmm数

    この式は「解像度を変更したとき、レンズの見え方がどれくらいズレるか」をmm換算で求めるためのものです。

    例えば…

    • 元の解像度:1920
    • 変更後の解像度:2048
    • レンズ:50mm

    の場合、

    (2048 ÷ 1920) × 50 = 約53.3mm

    つまり 約3.3mm分、余分に描画(オーバースキャン)すればOK という意味になります。

    まとめ

    • 解像度を変えると画角も変わる
    • そのズレをレンズ換算で求めるのがこの式
    • オーバースキャン量の目安として便利!

    CGや実写合成の精度を上げたい人は、ぜひ活用してみてください。

  • golaem crowd ノード完全解説|Operators と Triggers を理解する

    ゴーレムの挙動は「ノード」で制御されています。
    一見複雑に見えるこのシステムですが、**Operators(演算ノード)Triggers(発動条件ノード)**を理解すれば、行動設計が一気に楽になります。

    この記事では、golaem crowdで使用される主要ノードを
    **「分類 → 役割 → 使いどころ」**の順で、分かりやすく解説します。


    Operators(オペレータ)ノード

    Operatorsは、「条件の処理」や「制御の加工」を行うノードです。
    Triggerで起きた出来事を、どう扱うか・どう判断するかを決める役割を担います。

    アイコン名前説明
    Group / Compositeノードをまとめて構造化する。ノードが増えすぎた時の整理。
    Loop / Repeat一定の間隔で繰り返す。例:一定時間ごとにトリガーチェックなど。
    Sequence特定の位置・エリアに到達したときに発動
    Delay条件が成立してから**○秒後に発動**したい時に使用。
    if条件を満たした時だけ動作する。
    例:(一定時間たったら行動開始など)。
    randomランダムに 発動する。確率ベースで行動変化させたいときに便利
    (例:50%で立ち止まるなど)。
    blocker一定時間や条件の間、**条件をブロック(無効)**する。
    例:発動後5秒間は再発動しない。
    anchor特定の時間や状態を記憶するノード。
    Triggerの一種で、「このときに成立した条件を保持」したいときに使用。

    Triggers(トリガー)ノード

    Triggersは、**「何が起きたら行動するか」**を定義するノードです。
    行動の「きっかけ」を作るセンサーのような存在です。

    アイコン名前説明
    Random Triggerランダムな確率で発動
    (例:30%で行動開始など)
    Time Trigger指定された経過時間またはフレームで発動
    Location Trigger特定の位置・エリアに到達したときに発動
    Paint TriggerTerrainやPaint Toolで
    塗ったエリアに入ったら発動
    Geometry Trigger指定ジオメトリに接触・接近したときに発動
    Distance/
    Bone Proximity Trigger
    特定のBone間の距離条件により発動
    (近づいたら等)
    Perception Trigger他のエージェントやオブジェクトを
    「視認」したら発動
    Navmesh Location Reached Triggerナビメッシュ上の地点に到達したときに発動
    Previous Behavior Finished直前のビヘイビアが終了した時に発動
    Start of Behavior他のビヘイビアが開始した時点で発動
    Trigger Channelスクリプトなど外部からの発火トリガー
    Animation Event Triggerアニメーションに埋め込まれた
    イベントマーカーで発動
    Speed Triggerエージェントの速度が値を超えた/
    下回ったときに発動
    Boolean Triggerカスタムブール値や条件が真偽で
    分岐したときに発動

    条件演算ノード(論理処理)

    条件式を組み立てるためのノードです。

    ノード条件参考例
    すべての条件が成立したとき例:「ゾーンAに入り、
    かつ時間が30秒経過したら走る」
    どれか1つでも条件が成立したとき例:「ゾーンAまたはゾーンBに入ったら止まる」
    一方だけ成立(両方NG)例:「Aだけ or Bだけに入ったときに反応。
    両方同時は無視」
    条件が成立していないときに実行例:「ゾーンに入っていないときに歩き続ける」
    状態の蓄積や継続時間の判定例:「特定の条件が3秒間続いたら行動開始」

    まとめ

    ゴーレムのノード設計は、

    • Trigger = きっかけ
    • Operator = 判断
    • Behavior = 行動

    この3つで構成されています。

    仕組みを理解してしまえば、
    「感覚的な配置」から
    「意図した制御設計」へ変わります。

  • 概要


    このスクリプトは、不明なノード(unknownノード)を検出し、削除せずに選択のみを行うためのスクリプトです。
    Mayaの標準機能では必要なノードまで削除してしまう可能性があるため、安全に確認できるよう本スクリプトでは選択のみに限定しています。

    使い方


    ・script editorでmelタブに下記スクリプトを貼って実行
    ・アウトライナの【Display】→【Dag Object only】のチェックを外すと確認できます。

    mel

    string $unknownNodes[] = `ls -type "unknown"`;
    
    if (size($unknownNodes) > 0) {
        select -r $unknownNodes;
        print("不明なノードを選択しました:\n");
        print($unknownNodes);
        print("\n");
    } else {
        print("不明なノードは見つかりませんでした。\n");
    };
    
  • はじめに

    2025年現在、AI映像の世界では「Gaussian Splatting(GS)」が一気に普及し、3D復元・背景生成・カメラワークの再構築が一般化しました。その中でも特に注目されているのが、**Skyfall-GS(スカイフォールGS)**です。

    従来の動画編集ツールとは異なり、Skyfall-GSは写真・動画を“3D空間化”し、そこに自由なカメラアニメーションを付与できる次世代エンジン。
    簡単に言えば、

    「普通の動画を、撮ってないアングルから再撮影できる」AIツール

    です。

    Skyfall-GSとは?

    ■ Gaussian Splatting(GS)ベースの高速3D再構築ツール

    Skyfall-GSはGaussian Splattingによる3D復元エンジンを搭載したAI動画制作プラットフォームです。

    • スマホや一眼で撮った通常の動画から
    • 高精度の3D空間を自動生成
    • あとからカメラを自由に動かせる
    • ライティングやフォーカスなどの設定も変更可能

    つまり、VFXやCG経験がなくても、
    実写動画に“3DCG的なカメラワーク”を追加できるのが最大の特徴です。

    例:

    • ドローンで撮った風景に後付けでカーブするカメラパスを追加
    • 室内撮影のカメラを滑らかにドリーさせる
    • 手ブレの多い素材を「3D空間上で」安定化
    • 本来写っていないアングルに“回り込む”撮影を実現

    Skyfall-GSが人気な理由

    1. とにかく高速

    普通のNeRFはレンダリングに時間がかかりますが、Skyfall-GSはGSを最適化した独自エンジンで数十秒〜数分で3D化できます。

    2. 映像クリエイター向けの操作性が良い

    • タイムライン
    • キーフレーム
    • カメラパスの編集
    • 被写界深度(DOF)調整
    • エクスポート設定

    など、“Premiere × Blender × iPhone LiDAR”を合わせたようなUIで扱えるのが特徴。

    3. スマホ素材もOK

    高価なシネマカメラがなくても、
    iPhone動画をそのまま3D化できます。

    4. 動画クリエイターに直結するメリットが多い

    • MV・PVなどのダイナミック演出
    • 店舗紹介のバーチャルカメラ
    • 不動産や建築のウォークスルー
    • VFXカットの下地として利用

    特に2024〜2025年のYouTube・ショート動画界隈での流行が背景にあります。

    Skyfall-GSの主な機能

    ◆ 1. 3Dシーン生成

    動画をアップロードするだけで
    ポイントクラウド+Gaussian Splatting形式で3D空間を作成。

    生成された3Dはリアルタイムで回せるため、
    カメラの位置・角度を直感的に調整できます。

    ◆ 2. バーチャルカメラ制御

    PremiereやAfter Effects感覚でカメラを操作できます。

    • キーフレームアニメーション
    • スムーズなカーブ編集
    • DOF
    • シャッタースピード再現
    • モーションブラー追加

    リアルの撮影では不可能な角度も作れるため、
    映像の“説得力強化”に使えます。

    ◆ 3. AIスタビライズ(3D安定化)

    普通の動画のスタビライズは平面処理ですが、
    Skyfall-GSは3D空間でカメラを安定化するため、
    以下が可能になります:

    • 壁や地面が“ヌルッ”と動かない
    • 直線が曲がらない
    • パースが破綻しない

    特に建築・風景系では効果絶大。

    ◆ 4. 新しいアングルの生成

    撮影していない角度をAIが補完し、
    カメラワークを自由に変更可能。

    • 前から撮った人物を斜め45度に回り込む
    • ドローン撮影の真下からのショットを作る
    • 店内撮影をパンしながらウォークスルー風にする

    ◆ 5. 書き出しが豊富

    用途に応じて:

    • 高解像度動画(ProRes対応のことが多い)
    • 静止画
    • 3Dモデル/GS形式
    • FBX/Rig生成なしの軽量3Dデータ

    などが書き出せることが多いです。

    Skyfall-GSのメリット・デメリット

    メリット

    • スマホ動画だけで“3D化”が可能
    • 撮影していないアングルを生成できる
    • プロの映像演出を個人でも実現
    • YouTube・ショートと相性が良い
    • 編集が速い
    • AIが補完してくれるので素材が少なくてもOK

    デメリット

    • 被写体が鏡・透明物だと誤差が出る
    • 早い動きはGS復元が弱いことがある
    • 表面が滑らかになりやすい
    • 完全に映画品質というより「AI的な質感」になる場合も

    どんな人に向いている?

    映像制作(MV / PV / Vlog / 商業広告)

    少ないカットからダイナミックな演出を作りたい人。

    CGクリエイター(Blender / Maya / UE)

    リファレンスとしても便利。
    “空間をそのまま3D化して、カメラを研究する”用途として最強です。

    建築・不動産関係

    室内をスキャンし、自由な動線を作れる。

    インフルエンサー / YouTuber

    短尺動画の演出として即戦力。

    他ツールとの比較

    ツール特徴向いている用途
    Skyfall-GSGS+AIで高速3D復元・動画から自由カメラMV、Vlog、ショート
    Luma AI高品質NeRF。細部に強い高画質アセット、3Dモデル
    PolycamLiDAR/写真ベースの確実なスキャン建築、空間記録
    RunwayAI編集総合ツール合成・生成・エフェクト

    Skyfall-GSは動画特化 × 高速 × カメラ自由度という立ち位置。

    使う上での注意点(重要)

    ① 動きの速い被写体は苦手

    GS系は高速モーションがブレてしまうため、
    人物が激しく動くと空間が壊れやすいです。

    ② スキャン用に“被写体はなるべく動かない方が良い”

    静止物が得意。
    人の場合は軽めの動きに留めるのがベスト。

    ③ ライティングが変化する場所も不向き

    影が大きく動くと誤差が増えます。

    ④ 解像度の限界がある

    ビデオカメラの画質以上の情報は生成されないため、
    4K撮影推奨。

    ⑤ 個人情報・写り込みに注意

    空間スキャン=周囲全ての情報を保持するため、
    公開前に写り込みチェックが必要。

    まとめ

    Skyfall-GSは「撮影した動画を、3D空間として再撮影できる」革新的ツール。

    AI+GSのおかげで、誰でも

    • ドローンのような滑らかなカメラワーク
    • 映画的なショット
    • 新しいアングルの再構築
    • 3Dスタビライズ
      を手軽に実現できます。

    2025年の映像制作では、
    “実写 × AI 3D のハイブリッドワークフロー”が当たり前になると言われており、Skyfall-GSはその中心にあるツールのひとつです。

  • 3DCG制作やVFX、スキャンデータ処理の現場で注目を集めているのが、Meta(旧Facebook)が開発した SAM3D(Segment Anything Model 3D)
    名前の通り、「あらゆるものを切り出す」ことを目的にしたセグメンテーションモデルで、従来の2D版 SAM を3D領域に拡張した最新技術です。

    この記事では、SAM3Dとは?何ができるの?どんな用途で使えるの? を、CGアーティストにも分かりやすく解説します。

    1. SAM3Dとは?

    SAM3D(Segment Anything Model 3D)は、
    3Dデータ(点群 / メッシュ / 深度画像)を対象にした汎用セグメンテーションAI
    です。

    従来版の SAM は写真や画像に対して「どこでも自由に切り抜ける」モデルでしたが、SAM3D はその3D版。
    具体的には、

    • 点群(LiDARスキャン、フォトグラメトリの中間データ)
    • メッシュモデル
    • RGB-D(深度付き画像)

    などあらゆる 3D フォーマットに対して、ポチッとクリックするだけで対象物を自動で切り分けられるのが最大の特徴です。

    2. SAM3Dでできること

    ① ワンクリックで3Dオブジェクトを自動抽出

    点群の中から、車・人・建物など特定の形状を自動マスク生成
    地味に面倒な「手動クリーンアップ」作業を大幅に短縮できます。

    ② 部分的な3D編集が圧倒的に楽になる

    不要な樹木、電柱、背景ノイズなどを数秒で切り出し/削除できるため、

    • VFX向けの3D背景スキャン処理
    • CGアセット化
    • デジタルツイン向けデータ整備

    などで非常に強力。

    ③ 3D+2Dのハイブリッド理解

    SAM3DはRGB情報(2D)と深度(3D)を統合して判断するため、
    従来の「点群ベースのAI」よりもセグメント精度が高いのもポイント。

    ④ プロンプト(クリック / テキスト)での直感操作

    SAMシリーズ特有の “入力の自由度の高さ” が3Dでも健在。

    • クリック
    • ボックス選択
    • テキストプロンプト(例:「car」→車だけ抽出)

    など、直感的な操作が可能です。

    3. SAM3Dが注目されている理由

    圧倒的な汎用性

    特定の業界に特化したAIではなく、
    何にでも使える3Dセグメンター」という汎用モデル。

    画像の SAM が一気に普及したように、
    3D領域でも同じ波が来ると予想されています。

    3Dデータの需要が爆増している

    2024〜2025年にかけ、

    • VFX・映画制作
    • メタバース
    • 建設・土木
    • 自動運転
    • ロボティクス
    • XR(VR/AR)

    などで 3D データ処理の需要が急増。
    そこに「作業を爆速化できるツール」としてSAM3Dがフィットしました。

    ゲーム・映像・産業の全分野で使える

    3Dモデルは業界ごとのフォーマット差が激しいですが、
    SAM3Dは 点群 / メッシュ / 深度 のどれにも対応するため、
    どのワークフローにも入れやすいという利点があります。

    4. SAM3Dの仕組み(ざっくり解説)

    難しい数式は抜きにして、SAM3Dは以下の組み合わせで動作します:

    ● ① 画像特徴(2D)

    Vision Transformer(ViT)により画像の特徴を抽出。
    2DのSAMと同等レベルの知識を活用。

    ● ② 3D特徴(深度 / 点群)

    新しい3D Encoderが空間構造を理解し、
    点群の密度や距離情報を学習。

    ● ③ 2D + 3D の統合

    2Dと3Dを同時に使うことで、
    従来の点群AIより精度が高いセグメントを生成。

    5. SAM3Dの活用例(CGアーティスト向け)

    あなたのように Maya・Blender や Unreal などを使うクリエイターにとって SAM3D は実務でかなり使えます。
    具体例を紹介します。

    ● ① フォトグラメトリでの不要要素の削除

    スキャンデータに必ず入ってしまう

    • 看板
    • 電線
    • 雑草

    などの除去作業がボタン1つで完了

    ● ② VFX背景データのクリーンアップ

    映画・CM制作で扱う点群スキャンを
    「地面」「建物」「車」「樹木」などに自動分類。

    ● ③ Unreal Engineでのシーン分離

    スキャンした現場データをそのまま UE に流す際、
    オブジェクト単位で整理するのが簡単になる。

    ● ④ 3Dアノテーションにも使える

    学習データのラベリング作業の手間が激減。

    6. SAM3Dを使う上での注意点

    SAM3Dは便利ですが、いくつかの弱点もあります。

    ● 大規模点群は重くなる

    数千万〜億点の点群はGPUメモリを大量消費。
    → 下処理(ダウンサンプリング)が必要。

    ● メッシュの穴やノイズには弱い

    生点群よりメッシュの方が精度が安定。

    ● 商用利用はライセンス確認が必要

    Metaのライセンスは基本的にオープンですが、
    商用ツールで組み込む場合は要チェック。

    ● 完全自動ではなく“半自動”

    クリックやヒント入力が必要なケースも多い。

    7. まとめ:SAM3Dは3D制作の「Photoshopの選択ツール」になり得る

    SAM3Dは、画像編集で言う 「自動選択ツール」
    3D空間に持ち込んだような強烈なモデルです。

    • スキャン処理が早くなる
    • CGの前処理が楽になる
    • ノイズ除去が自動化される
    • 自動運転・ロボットなどの産業用途でも使える

    など、将来の3D制作ワークフローに大きな影響を与える技術。

    今後は Blender・Maya プラグイン化
    Unreal Engine 連携 がさらに進むと、
    より身近なツールになるでしょう。

    https://github.com/facebookresearch/sam-3d-body

  • 動画編集はこれまで、「大量の素材を並べて、不要な部分をカットし、BGMや字幕を重ねていく」という“手作業の積み重ね”が中心でした。しかしここ数年の AI の進化により、編集の一部は自動化されつつあります。

    その中でも 「Mosaic」 は、従来の動画編集ソフトとはまったく異なるアプローチを採る次世代ツールとして注目されています。

    本記事では、Mosaic の特徴・メリット・注意点・活用方法を、クリエイター視点でわかりやすく解説します。

    ■ Mosaic とは何か?

    Mosaic は、AIエージェントが動画を分析し、編集工程を自動で実行していくタイプの “自律型動画編集プラットフォーム” です。
    従来のようにタイムラインを操作するのではなく、

    • カット
    • 字幕生成
    • 明るさ調整
    • Bロール挿入
    • 構成の最適化

    といった処理を“タイル(ノード)”としてキャンバス上に並べ、線でつないでワークフローを構築します。

    つまり、「動画編集版のノードプログラミング」 のような感覚で編集全体をデザインできます。

    ■ Mosaic の革新的なポイント

    ● 1. 動画の内容を理解する“マルチモーダルAI”

    Mosaic のAIは、映像と音声を同時に読み取り、シーンの内容を判断します。

    そのため、

    • 不要部分のカット
    • インタビュー動画の要点抽出
    • 特定の物体(人・動物・物)を含むシーンの抽出
    • 無音区間の自動削除
    • テロップの自動生成

    など、従来のシンプルな“機械的編集”では難しかった処理も対応できます。

    ● 2. 作業工程が「見える化」されたノード編集

    Premiere や DaVinci のように細かくタイムラインを操作する必要はありません。
    必要な処理をブロックとして並べれば、あとは Mosaic のAIがその順番に沿って編集を実行します。

    これにより、

    • 作業ミスが減る
    • 編集フローの再利用・テンプレ化が簡単
    • 複数の動画を高速で量産可能

    というメリットが生まれます。

    ● 3. 既存ソフトとの併用にも強い

    大まかな編集を Mosaic で終わらせた後、細かなカラー調整や演出は

    • Premiere Pro
    • DaVinci Resolve
    • Final Cut Pro

    などで仕上げるという“ハイブリッドワークフロー”も可能です。

    ■ どんな人に向いている?

    ◎ 動画を量産したい人

    Vlog、商品レビュー、教育動画、SNS用ショート動画など、同じ形式の動画を大量に作る人は恩恵が大きいです。

    ◎ 編集に時間を割けないクリエイター

    撮影・企画・演出がメインの人にとって、作業負担の大きい“素材整理”と“カット編集”を任せられるのは非常に便利です。

    ◎ AI時代のワークフローを取り入れたい制作会社・個人

    ノード構造は複雑な工程の管理に強く、プロ環境にも十分応用できます。

    ■ 注意点・弱点

    Mosaic はまだ発展途上のツールで、いくつか気をつけたい点もあります。

    ● 精度は素材や指示に左右される

    AIの判断が必ずしも“理想の編集”と一致するとは限りません。
    構成が複雑な動画は、最終的なチェックと微調整が必須です。

    ● 高度なVFXや細かいタイミング調整には不向き

    フレーム単位のアニメーション調整や合成作業は、従来のソフトのほうが圧倒的に得意です。

    ● ネットワーク環境が前提

    素材をクラウドにアップロードして処理するため、ネット環境の影響を受けます。

    ■ 実際のワークフロー例

    ここでは 「Vlog動画を自動編集するテンプレ例」 を紹介します。

    1. ノイズ除去タイル
    2. 無音区間の削除タイル
    3. AIによる重要シーン抽出タイル
    4. 自動カット編集タイル
    5. 字幕生成タイル
    6. BGM 自動調整タイル
    7. 書き出しタイル

    この流れをテンプレ化しておけば、次回以降の編集は素材を入れるだけでOK。
    毎回ゼロから編集する必要がなくなります。

    ■ まとめ:動画編集の負担を“AIに任せる時代”へ

    Mosaic は、これまで人が時間をかけていた“地味で膨大な作業”を自動化し、編集者やクリエイターが本来のクリエイティブに集中するためのツールです。

    • タイムラインを触る時間を減らしたい
    • 動画の量産効率を上げたい
    • AI編集をワークフローに取り入れたい

    こうした人にとって、Mosaic は非常に魅力的な選択肢になります。

  • 2025年に入り、Google の画像生成AI 「Nano Banana Pro」 が大きく注目されています。
    従来の “画像生成AI” とは一線を画す 構図の安定性・文字描画精度・写真レベルのリアリティ が特徴で、クリエイターの制作フローにも確実に影響を与える存在です。

    この記事では、
    3DCG・映像・ブログ・サムネ制作などを日常的に行うクリエイター向けに、
    Nano Banana Pro の強み・実例・活用ポイント、そして 使う上での注意点 をまとめます。

    1. Nano Banana Pro とは?

    Google(Google DeepMind)が提供する最新の画像生成モデルで、正式には

    「Gemini 3 Pro Image」

    という名称。
    通称として「Nano Banana Pro」と呼ばれ、スマホの Gemini アプリからも利用できます。

    従来の画像生成AIと比べ、

    • 構図が破綻しにくい
    • 文字入り画像が高精度
    • 写真のような質感の再現
    • 多言語対応(日本語のプロンプトが強い)

    といった長所があり、サムネ・ビジュアル制作にも非常に相性の良いモデルです。

    2. クリエイター視点での強み

    CG・映像制作をする人間から見ると、次の点が “実務レベル” で便利。

    ■ ① 文字(日本語)が破綻しにくい

    従来の画像生成AIにありがちな、

    • 文字の誤字
    • 文字の潰れ
    • 文字の変形
      が極端に少ない。

    ブログのOGPサムネ、YouTubeサムネで即戦力。

    ■ ② 一貫した構図で複数生成できる

    同じキャラ、同じデザインを維持したまま、

    • 別角度
    • 別ポーズ
    • 別背景
      を安定して作れる。

    コンセプトアート、VFXの資料、キャラ方向性確認 に向く。

    ■ ③ “スタジオ品質”の写真結果

    照明・レンズ・被写界深度・ライティングの再現度が高く、
    実写っぽいイメージボードを即座に出せる。

    ロケハンの代替資料、広告モック、実写コンポの素材確認 に使える。

    ■ ④ 素材生成だけでなく「画像編集」も強い

    • 物体の追加
    • 背景の変更
    • 色調整
    • 構図の修正
      などが自然。

    After Effects / Photoshop と合わせて作業時間が短縮できる。

    3. CG・映像制作での使いどころ

    ■ ① AE/CG 合成のイメージ作成

    • ライト構成
    • カメラアングル
    • 雰囲気
    • マットペイントの参考

    などを “秒” で作れる。

    ■ ② モデリングする前の方向性確認

    キャラ・背景を作る前に、「こういう感じで」と社内で共有しやすい。

    ■ ③ ブログ画像・サムネ素材

    あなたのブログジャンル的にも、

    • ガジェット紹介用ヘッダー
    • CG解説の図解イラスト
    • サムネイルの背景素材
      などに相性抜群。

    ■ ④ ポートフォリオ・案件の雰囲気作り

    「世界観を伝えるページ」などに AI素材があると見栄えが良い。

    4. 生成画像のイメージ案(文章だけでOK)

    ※あなたの WordPress で実際に生成して貼る場合のイメージ案:

    • 「未来的なCGスタジオで作業する人物」
    • 「シネマティックなライトに照らされたガジェット」
    • 「手書き風のCGワークフロー図解」
    • 「AIとクリエイターが作業をしているメタファー画像」

    こういう “抽象度の高いビジュアル” がとても得意。

    5. Nano Banana Pro を使う上での注意点(重要)

    CG屋・映像クリエイターにとって大事なポイントを整理しました。

    ■ ① 商用利用の範囲に注意(Google利用規約)

    Googleは基本的に商用利用OKだが、

    • 著作権が他者にある素材
    • 有名IP
    • 写真そっくりの人物
      はそのまま商用に使うと危険。

    特にブログで稼ぐ場合は要注意。

    ■ ② “嘘の情報を含む図解” が生成される可能性

    Nano Banana Pro は 事実に基づいた画像生成も売りにしているが、

    • 図表に誤値
    • ラベルの誤り
    • グラフの形が不自然
      …などが発生することがある。

    技術解説ブログでは必ず人間がチェック。

    ■ ③ 同じキャラでも微妙に差分が出ることがある

    安定性は高いが、
    キャラのバランス・プロポーションが 1〜2回目の生成で微妙にズレることがある。

    ➡ 同じキャラを大量に作る場合は ControlNet 的な条件画像の併用がおすすめ。

    ■ ④ 解像度は高いが、拡大すると“AI特有の違和感”が残る場合がある

    • 金属の反射
    • 文字の質感
    • 手のライン
      など、拡大するとAI特有のクセが残ることもある。

    ➡ 印刷物・大型バナーは Photoshop で追い込みが必要。

    ■ ⑤ プロンプトの曖昧さ=結果のブレ

    リアル寄りAIの宿命として、
    「中途半端な曖昧プロンプト」は一番ブレる。

    ➡ カメラ設定(焦点距離・f値・照明)を指定すると安定。

    6. まとめ

    Nano Banana Pro は、
    「高速アイデア出し」「方向性決め」「サムネ制作」「コンセプト共有」
    において、クリエイターの作業効率を大幅に引き上げるAIです。

    ただし、

    • 著作権
    • 図解の誤情報
    • キャラの一貫性
    • 印刷品質
      などの注意点を押さえたうえで、
      “参考素材” として使うのが実務的に最も安全。

    7. 参考リンク(出典・仕様)

    • Google公式:Gemini 3 Pro Image
    • Googleブログ:Nano Banana Pro 解説
    • 各メディアのレビュー(The Verge, WIRED など)

    (本記事で引用する場合は「参考」として明記すればOK)

  • ― 光で動く、新世代ワイヤレスキーボードの答え

    自宅でも職場でも、ワイヤレスキーボードの弱点といえば「充電」に尽きます。
    ケーブルを刺したり、電池を交換したり…気づいたらバッテリーが切れて作業が中断される。
    そんな小さなストレスをまるごと消してくれるのが、ロジクールの Signature Slim Solar+ K980 です。

    このキーボードの最大の特徴は、名前の通り “光で動く” ソーラー充電システム
    自然光だけでなく、室内照明でもバッテリーを回復してくれるため、日常使いならほぼ無限に使い続けられます。

    この記事では、K980 のデザイン・使い心地・向いている人・注意点まで、実際に使うイメージがつくように分かりやすくまとめます。

    光で充電するという新しいスタイル

    K980 は、本体上部にスリムなソーラーパネルを搭載しています。
    特徴は「太陽光だけじゃなく、LED照明やデスクライトでも充電できる」点。

    • 充電ケーブルなし
    • 電池交換なし
    • 机の上に置いておくだけで充電

    オフィスでも自宅でも常に光が当たる環境なら、充電を“意識すること自体”が無くなります。
    これは想像以上に快適で、作業の小さなストレスがひとつ消えます。

    フルサイズ配列 × 薄型パンタグラフで扱いやすい

    K980 はテンキー付きのフルサイズ。
    数字入力が多い人や、文章とスプレッドシートを行き来する人には特に便利です。

    打鍵方式は「薄型パンタグラフ」。
    ノートPCに近い軽めのタッチで、静音性が高いタイプです。

    • 打鍵音が軽い
    • 低いキーで指移動がスムーズ
    • 夜の作業でも周りを気にしなくて済む

    ただし、メカニカルのような“カチッとした反発”を求める人には物足りないかもしれません。

    最大3台のデバイス切り替えが超便利

    K980 は Bluetoothに3台まで登録可能
    「Easy-Switch」キーでワンタッチ切り替えができます。

    • PC
    • タブレット
    • スマホ

    このあたりを行き来したい人には理想的。
    特に、ブログ執筆やSNS運用をしていると、複数端末で文章を書く機会が多いので、この機能はかなり実用的です。

    デザインは“控えめに美しい”

    K980 のデザインはとにかくスマートでミニマル
    飾りが少なく、デスクに置いた時に圧迫感がありません。

    • 薄型で省スペース
    • グラファイトカラーが落ち着いている
    • 前面にケーブルがないので見た目がスッキリ

    デスク写真を撮る人や、ミニマルな作業環境を整えたい人にも相性抜群です。

    ここだけ注意してほしいポイント

    ● バックライト非搭載

    明るい場所では問題ありませんが、暗所で作業する人には不向き。

    ● 打鍵感は“軽め”の路線

    メカニカルキーボード愛好家なら、かなり物足りなく感じるはず。

    ● 光のない環境だと当然バッテリーが減る

    真っ暗なスタジオ環境などでは恩恵を受けにくい。

    どんな人に向いている?

    • 毎日の充電や電池交換が面倒
    • デスクをケーブルレスでスッキリさせたい
    • 静かなキーボードが好き
    • USB-Cなど“充電専用ケーブル”を増やしたくない
    • PC・タブレット・スマホを切り替えて使う
    • シンプルで落ち着いたデザインが好き

    K980 は“作業用キーボード”として非常に完成度が高いモデルです。

    まとめ:作業のストレスを静かに消してくれるキーボード

    Signature Slim Solar+ K980 は、
    「派手さはないけど、毎日の作業を確実に楽にする」タイプのキーボードです。

    • 光で勝手に充電する
    • ケーブルがない
    • 静かで扱いやすい
    • 複数デバイスを切り替えて使える

    長時間の作業が当たり前のクリエイターやライターには、まさに理想的な相棒。

    あなたのブログの「ガジェットレビュー」カテゴリにもピッタリの内容なので、このまま WordPress に貼り付けて使えます。
    もし「もっと写真を入れたい」「比較表も作りたい」などあれば、すぐに追加します!

  • 急拡大するサプライチェーン攻撃 ― Bun 偽装マルウェアが JavaScript 界隈を揺らす

    ここ最近、JavaScript の開発者コミュニティで大きな話題になっているのが、
    「Bun のセットアップを装ったマルウェア」 による大規模な感染です。

    調査機関の報告によると、感染した NPM パッケージは 1,000 件を超え
    GitHub 上では 2 万件以上のリポジトリ で不審なコードの混入が確認されています。

    短時間でここまで拡大した背景には、
    “自己増殖型” の挙動を持つ特殊なマルウェア が存在していることが分かっています。

    仕組みはシンプルなのに強力 ― 「Bun のインストール」を装う

    今回問題となったパッケージには、インストール時に自動実行される以下のようなスクリプトが含まれていました。

    "preinstall": "node setup_bun.js"
    

    パッと見ると「Bun のセットアップだな」と思ってしまうのですが、
    実際には 難読化された不正スクリプトの呼び出し になっています。

    このスクリプトが行うことは主に 3 つです:

    • PC や Git 上の 環境変数・アクセスキーの収集
    • 不正な JavaScript ファイルを ローカル環境に常駐
    • 盗んだトークンを使って 他の NPM パッケージへ感染を拡散

    特に最後の「勝手に他のパッケージを再公開して感染させる」という動作が、
    今回の“爆発的な拡散”の原因になっています。

    GitHub Actions にも忍び込む ― CI/CD まで汚染される

    より厄介なのは、感染が ローカル環境だけにとどまらない という点です。

    感染したプロジェクトでは、以下のような
    “見覚えのない GitHub Actions の YAML ファイル” が生成されていました。

    .github/workflows/update_formatter_XXXX.yml
    

    このワークフローは、
    ビルド時に秘密情報を収集し、外部へ送信する役割を持っています。

    つまり、

    • 開発 PC
    • Git リポジトリ
    • CI/CD(GitHub Actions)

    三段階で情報が抜かれる可能性 があるということです。

    これは近年のサプライチェーン攻撃の中でも特に深刻なケースだと警告されています。

    なぜ今回の件が “歴史的規模” と呼ばれているのか

    今回の事件が大きな注目を集めている理由は、単に感染数が多いからではありません。

    • 感染パッケージ:1,000以上
    • 感染リポジトリ:27,000以上
    • 拡散速度:数時間で指数関数的に増殖
    • 標的:あらゆる JavaScript 開発者

    さらに、NPM や GitHub といった “ソフトウェア供給の基盤” そのものが狙われています。

    これは、個人開発者だけではなく企業のプロジェクトにも
    影響が波及する可能性があるという点で非常に危険です。

    私たちが今すぐできる対策

    以下は、今回のような攻撃に対して 最低限やっておくべき対策 です。

    1. 疑わしい NPM パッケージを全面チェック

    package.json / package-lock.json の依存関係を確認。

    2. キャッシュをクリアして再インストール

    npm cache clean --force
    rm -rf node_modules
    npm install
    

    3. すべての Secrets をローテーション

    NPM トークン、GitHub トークン、AWS/GCP/Azure など。

    4. GitHub Actions の監査

    .github/workflows 内に不審なファイルがないかチェック。

    5. 依存関係を最小化し、自動更新をやめる

    便利な反面、攻撃の侵入口が増えます。

    まとめ:便利さに依存しすぎる開発スタイルの“揺り戻し”

    開発者にとって NPM は欠かせない存在ですが、
    今回の件は 「便利さとリスクはセット」 であることを改めて突きつけた事件と言えます。

    • 何を入れているのか
    • いつ更新されたのか
    • 誰が管理しているのか

    このあたりを意識せずにパッケージを入れ続けていると、
    今回のような “供給網まるごと感染” の危険性が高まります。

    これを機に、依存管理や CI のセキュリティを
    一度見直してみる価値は大いにあるはずです。

    参考資料

    https://gigazine.net/gsc_news/en/20251125-shai-hulud-1k-npm-packages-27k-github-infected

  • ■ はじめに

    Maya で Arnold を使っていると、「Arnold のバージョン」と「Arnold Core のバージョン」が一致していないことがあります。
    特に複数台で作業している現場だと、この違いが原因でレンダリングエラーが出たり、ライトの挙動が変わったりと、意外とトラブルの元になります。

    この記事では、両者がなぜ違うのか、どこを見れば良いのか、何が問題になるのかを分かりやすくまとめます。

    ■ Arnold と Arnold Core は別物?

    実は Arnold は大きく2つのレイヤーで構成されています。

    ● ① Arnold(DCC プラグイン)

    • Maya、3dsMax、Houdini など各DCCに入っている プラグイン側のバージョン
    • UI、ノード、レンダリング設定などを DCC へ統合する部分
    • 例:
      • MtoA 5.3.4.1
      • MAXtoA 5.7.2.0

    ● ② Arnold Core(レンダリングエンジン本体)

    • 実際に計算して絵を出力する「中身」
    • プラグインよりも若干早いペースでバージョンが更新されることがある
    • 例:
      • Arnold Core 7.2.4.0
      • Arnold Core 7.2.5.1

    ■ なぜバージョンが一致しないのか?

    ● 理由1:プラグインは Core を内包しているが、更新タイミングが別

    MtoA の中には Arnold Core が含まれていますが、
    MtoA のリリース ≠ Core のリリースタイミングではないため、小数点以下がズレることがあります。

    例:

    • MtoA 5.3.2 → Core 7.2.1.0
    • MtoA 5.3.3 → Core 7.2.1.1(Core だけマイナーバージョンアップ)

    ● 理由2:Maya バージョン同梱の MtoA が古い

    Maya を更新していない環境だと、昔の MtoA + 古い Coreが残っている場合が多いです。
    スタジオで台数が多いほどズレる原因になります。

    ● 理由3:OS・GPU・NVIDIA Driver の相性による抑制

    Arnold Core が新しすぎるとクラッシュする環境では、あえて Core を据え置きにして MtoA だけ更新することもあります。

    ■ バージョンが違うと何が起きる?

    ● 1. レンダリング結果が微妙に変わる

    • ノイズ量
    • バウンス計算
    • サーフェイスの反射の質
    • ボリュームの密度
      などが、Core のバージョンによって変化することがあります。

    ● 2. 「同じシーンが別PCで違う絵になる」

    現場あるあるですが、PC A と PC B で絵が揃わない原因の1つです。

    ● 3. エラーやワーニング

    代表例:

    • AI_WARNING | Node ... parameter was removed in Arnold X.X.X
    • USING OLD NOISE ALGORITHM
    • Shader not compatible with Arnold Core

    特に Toon シェーダー、ボリューム、GPU レンダーは影響を受けやすいです。

    ● 4. GPU レンダーが動かない

    Arnold Core と NVIDIA Driver の相性で
    突然 GPU レンダーだけ落ちるということも起きます。

    ■ どこでバージョンを確認する?

    ● Maya のメニュー

    Arnold タブ→ About… 

    ここに

    • MtoA Version(DCC プラグイン)
    • Arnold Core version(レンダリングエンジン)
      の両方が表示される。

    ※ 実際の UI はバージョンで変わります。

    ■ 現場での正しい対処法(実務ベース)

    1. チーム全体で Core の整合性を取る

    バラバラのバージョンで作業すると、必ず問題になります。
    Maya や MtoA のインストーラを 同一セットで全台に配布 が鉄則。

    2. プラグインだけ更新するときは Core も確認する

    MtoA を上げたのに Core が上がっていない
    → ほぼ必ず不整合が発生。

    3. GPU レンダーの場合は NVIDIA Driver と合わせて管理

    Arnold は GPU まわりの変化が大きく、
    Driver が1つ違うだけで落ちることがあります。

    推奨セット:

    • MtoA バージョン
    • Arnold Core バージョン
    • NVIDIA Driver バージョン(Studio版推奨)
      を 1 セットでメモ化しておくと強いです。

    ■ まとめ

    項目内容
    Arnold(MtoA)Maya に統合されるプラグイン側のバージョン
    Arnold Core実際に絵を計算するレンダリングエンジン
    バージョンがズレる理由リリースタイミングの違い、環境により Core を据え置く場合がある
    問題点レンダリング結果の差異、エラー、GPU レンダーのクラッシュなど
    対策チーム全台のバージョンを揃える・Core とプラグインの整合性チェック

    この記事だけでも、現場でよく起きる
    「同じ設定なのに絵が違う」「突然エラーが出る」の原因特定に役立つ内容になっています。