Meta AI segmentiert jetzt jedes Bild automatisch
Meta hat ein neues Foundation Model veröffentlicht: „Segment Anything Model" (SAM). Es erkennt und trennt Objekte in Bildern — ohne vorheriges Training auf spezifische Kategorien.
Was SAM kann
Das Modell funktioniert als Allzweck-Segmentierer. Ein Klick, ein Rahmen, ein Text-Prompt — SAM schneidet das gewünschte Objekt aus. Egal ob Katze, Stuhl oder Tumorzelle.
- Typ:** Foundation Model für Image Segmentation
- Ansatz:** Zero-Shot — funktioniert ohne objektspezifisches Fine-Tuning
- Input:** Punkt, Box, Text oder Kombination als Prompt
- Herkunft:** Meta AI Research (FAIR)
- Lizenz:** Open Research, Modell und Datensatz veröffentlicht
Was das bedeutet
Bisher brauchte jede Segmentierungs-Aufgabe eigene Trainingsdaten und eigene Modelle. SAM will für Bildsegmentierung das sein, was GPT für Text ist: ein Grundmodell, das alles kann. Wenn das hält, spart es Forschern und Entwicklern Monate an Arbeit.
✅ Pro
- Zero-Shot funktioniert über Objektklassen hinweg
- Modell und Daten offen verfügbar
- Prompt-basiert — flexibel einsetzbar
❌ Con
- Kein LLM — begrenzter Hype-Faktor trotz echtem Nutzen
- Qualität bei komplexen Szenen noch unklar
- Foundation Model heißt nicht fertiges Produkt
Einordnung
Meta knallt regelmäßig starke Research-Projekte raus, während alle Welt nur über Chatbots redet. SAM ist kein Consumer-Produkt. Es ist Infrastruktur — die Art von Arbeit, die in zwei Jahren in jeder Foto-App steckt, ohne dass jemand weiß woher.