roboflow playgroundでSAM3を体験!画像認識はここまで進化した!?
こんにちは。AI音痴ライターのなまず美紀(みきてぃ)です。
AIの最新ニュースを求めて、システムズナカシマに突撃取材するシリーズ。
今回のテーマは Meta社の「SAM3(Segment Anything Model 3)」です。
SAM3ってなに?
SAM3は、Meta社が2025年11月に発表した最新の画像・動画セグメンテーションAI です。画像や映像の中にある対象物を、
・見つけて(検出)
・形に沿ってきれいに切り抜き(セグメンテーション)
・動いていれば追跡までしてくれる(トラッキング)
という、ハイスペックなAI。
SAM3はどこが進化した?
SAM3の大きな進化は、「画像のどの物体を認識してほしいか」を指示する方法(=プロンプト)が圧倒的に便利になったこと。
これまでAIに物体を覚えさせるには、対象を一つずつ囲む、何十枚もラベル付けする、といった “気が遠くなるアノテーション作業” が必要でした。
SAM3では、ただ言葉で指示するだけで、画像から対象物を自動で見つけてくれます。SAM3のプロンプトは次の3種類。
① テキストプロンプト(SAM3から追加された新機能)
単語や短い言葉で指示。例:「red bag」「person in suit」
SAM3は画像の中から、その説明に合うすべての物体を自動で塗り分けます(=マスク生成)。
② エグザンプラープロンプト(SAM3から追加された新機能)
対象物を “例” で示す方法。画像の中で対象を四角で囲むだけで、「なるほど、この種類ね」 と理解し、同じ種類のものを全部見つけてくれます。
例)コーヒーカップを1個囲む→画像内のカップをすべて自動検出&切り抜き
③ ビジュアルプロンプト(SAM2にもあった機能)
クリックで指定する方法。
対象 → +クリック、違う → -クリックの操作で、SAM3が境界線を勝手に調整しながらマスクを生成します。
roboflow playgroundでSAM3が試せる!
なんと、Roboflow社が提供している「roboflow playground」でSAM3を試すことができます。
「roboflow playgourndのサイトから、誰でも今すぐSAM3を体験できますよ」と、シス
テムズナカシマのS社員。
というわけで、みきてぃも試すことになりました。
お試しは、roboflow playgourndのサイトのこちらから。
https://playground.roboflow.com/object-detection
先日のモーニングの写真をアップロードし、
画像の下にこう入力しました。
「coffee」「bread」「butter」「small dish」
すると…
一瞬で全部見つけてくれた!!!サム、あってるよ!
こうして、SAM3はみきてぃレベルの人間にも、画像認識の世界を身近に感じさせてくれたのでした。ありがとう サム。
以上、“みきてぃでもなんとかわかる”最新AIニュースでした。引き続き、新情報を入手したら、こちらでお伝えします。
AI活用に関するご相談・お問い合わせは、システムズナカシマまでお気軽にどうぞ。
–おすすめ記事–
類似画像検索AI「Visual Layer」は”意味”を読み解く⁉
【レポート】roboflowを体験!基礎から学べる画像認識AIワークショップ





