ai.cowboys nerd talk episode #2

Was sind Adaptive Cleansed Snapshots und für was brauche ich die?

Nun, wir vermuten eine Menge. Aber das ist unter anderem der Betrag, den Sie im Durchschnitt für die mobile Datenübertragung ausgeben würden, wenn Sie 60 Monate lang einen konstanten Datenstrom von einer einzigen Kamera mit 8 Bildern pro Sekunde (fps) bei einem Megapixel an die Cloud senden würden. Sie glauben das nicht? Sehen wir uns die Rechnung einmal an:

8 fps * 60 sec * 60 min * 24 hrs * 365 days * 5 yrs = 1.261.440.000 frames

Ein Megapixel-Bild ist etwa 300 Kilobytes groß, was zu folgender Gleichung führt:

1.261.440.000 * 300Kbps = 360.900 GByte

Nach Angaben von Cable UK liegen die durchschnittlichen Kosten für die mobile Datenübertragung in Deutschland im Jahr 2021 bei 2,67 Dollar pro Gbyte. Dies führt zu:

360.900 Gbyte * $2,67 / 1,07 EUR = 900.563,55 EUR

Ein unrealistisches Szenario? Mag sein. Aber:

  • Selbst wenn der Preis um 95% sinken würde, müssten Sie immer noch 750 EUR pro Monat und Kamera nur für die Übertragungskosten aufwenden. Je nach Umfang bedeutet das sehr wahrscheinlich das Aus für den Business Case, wenn nicht durch die Übertragungskosten, dann durch die Kosten für die Cloud-Inferenz,
  • Es ist sehr wahrscheinlich, dass Sie tonnenweise Daten mit begrenztem analytischem Wert übertragen, was Sie erst herausfinden werden, nachdem Sie für die Übertragung und die Inferenz in der Cloud bezahlt haben, und
  • Wenn Ihr Unternehmen der Datenschutz-Grundverordnung unterliegt, könnte Ihr Datenschutzbeauftragter Ihnen Fragen wie diese stellen: “Besteht die hypothetische Möglichkeit, dass auf dem Videostream Personen in Bewegung oder irgendwelche Gesichtsmerkmale zu sehen sind?”. Wenn die Antwort “Ja, …” lautet, ist die Hürde für die Übermittlung von Daten in die Cloud soeben auf “fast unmöglich zu überschreiten” angehoben worden, da die Bewegungsmuster einer Person und Gesichtsmerkmale als personenbezogene Daten (PII) gelten, wenn es um KI geht.
Diese Liste erhebt keinen Anspruch auf Vollständigkeit, sondern listet drei der größten Probleme auf, wenn es um in der Cloud gehostete Computer Vision für skalierte Edge-Implementierungen geht.
Was also tun? Eine sichere Option wäre es, die Bildverarbeitungs-KI in oder in der Nähe der Kamera laufen zu lassen und nur textuelle Metadaten für nachgelagerte Anwendungen bereitzustellen, während die Originalbilder verworfen werden. Die typische Optimierungsquote liegt bei über 99 %. Falls Snapshots zur Dokumentation benötigt werden, könnte die KI einfach eine Kopie mit verpixelten PII zu Dokumentationszwecken zusammen mit den Metadaten senden.
Heutzutage gibt es zahlreiche Anbieter von KI-fähigen Kameras oder Edge-Compute-Geräten, die über ausreichend Rechenleistung verfügen, um komplexe Computer-Vision-Anwendungsfälle zur Objekterkennung und -verfolgung in Echtzeit auszuführen. Je nach den Latenzanforderungen des Anwendungsfalls kann sogar eine für den Edge-Einsatz konzipierte CPU ausreichend sein. In einer unseren nächsten ai.cowboys Nerd Talk Episoden werden wir Benchmarks für verschiedene CPU- und GPU-basierte Edge-Compute-Geräte geben in Verbindung mit Computer Vision Anwendungsfällen geben.
Im Netzwerk teilen:
Scroll to Top
»Imagine you could simply apply and operate AI everywhere.«

Möchten sie mehr darüber erfahren, wie AI Ihrem Unternehmen nützen kann? Dann lassen Sie uns sprechen.