Newsmeldung von slashCAM:
Style Transfer war eine der ersten Deep Learning Anwendungen die der Welt andeutete, dass sich mit künstlicher Intelligenz in den nächsten Jahren so einiges verändern wir...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
KI-Styletransfer für Video jetzt auch interaktiv in Echtzeit
Antwort von Christian Schmitt:
Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Erinnert mich an eine Diskussion mit einem Kapitalismus/DerWettbewerbRegeltDas Verfechter, der meinte ohne finanziellen Anreiz ( = reich werden) würde es keine Innovation geben.
Irgendwie geht in manche Köpfe nicht rein, dass es Menschen gibt, die einfach von sich aus gerne forschen, tüfteln, erfinden, neue Wege begehen, experimentieren und nicht durch nen Ferrari und ne Breitling am Arm motiviert werden.
In der Regel stammt doch vie aus "unabhängiger Forschung" und wird dann durch ein paar Kniffe patentiert/markenrechtlich geschützt/"umverpackt" und die jeweilige Firma geniest dann den Ruf als Innovator.
Antwort von prime:
Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Zwei der Autoren arbeiten für Snap Inc. und die Arbeit wurde u.a. von Snap finanziert.
This research was supported by Snap Inc., the Research Centerfor Informatics, grant No. CZ.02.1.01/0.0/0.0/16_019/0000765, and by the Grant Agency of the Czech Technical University in Prague,grant No. SGS19/179/OHK3/3T/13 (Research of Modern ComputerGraphics Methods).
Quelle: Die Original Veröffentlichung
https://ondrejtexler.github.io/res/Texl ... g_main.pdf
Siehe Acknowledgements.
Antwort von cantsin:
prime hat geschrieben:
Zitat Slashcam: "Das einzige, was uns an diesen Anwendungen noch wundert ist, dass solche Innovationen immer noch primär aus der unabhängigen Forschung stammen."
Zwei der Autoren arbeiten für Snap Inc. und die Arbeit wurde u.a. von Snap finanziert.
Weshalb man davon ausgehen kann, dass Patente auf die hier entwickelten Verfahren/Techniken angemeldet wurden und andere Softwarehersteller erst Lizenzen erwerben müssen, um sie in ihren Programmen zu nutzen.
Antwort von prime:
Ob Patente anegemeldet werden oder nicht, kann ich nicht sagen. Wollte nur klarstellen das eine ganz klare (kommerzielle) Beteiligung und entsprechendes Ziel/Interesse von Snap Inc. vorliegt. Das diese Verfahren in irgendeiner Art und Weise demnächst in Snapchat landen, davon kann man wohl ausgehen.
Antwort von cantsin:
prime hat geschrieben:
Ob Patente anegemeldet werden oder nicht, kann ich nicht sagen. Wollte nur klarstellen das eine ganz klare (kommerzielle) Beteiligung und entsprechendes Ziel/Interesse von Snap Inc. vorliegt. Das diese Verfahren in irgendeiner Art und Weise demnächst in Snapchat landen, davon kann man wohl ausgehen.
Ja. Mein Einwurf mit den Patenten bezog sich ja nur auf eine mögliche Integration dieser Verfahren in Software wie Resolve und Premiere. In der Slashcam-Meldung klingt Verwunderung an, warum das noch nicht passiert - aber so einfach ist das halt nicht. Snap wird für die Nutzung dieser Verfahren aller Wahrscheinlichkeit nach Lizenzkosten und vertragliche Vereinbarungen verlangen, und Firmen wie Adobe und Blackmagic werden daher erst einmal untersuchen, ob sie ähnliche Ergebnisse auch mit anderen Verfahren erreichen können. Selbst unabhängige bzw. rein universitäre Forschungsergebnisse werden heutzutage häufig patentiert.
Antwort von rudi:
Ich möchte jetzt nicht sagen, dass großen Einblick in die Sache habe, aber Patente sind im Gebiet des Machine Learning eher selten. Nicht nur, weil es sich primär um nicht schützbare mathematische Verfahren handelt. Sondern auch weil man gar nicht genau weiß, was man an einem trainierten Modell schützen sollte. Konkretes Problem habe ich mal von einem KI-Startup gehört: Die haben ein riesiges Netz mit Bildern aus ihrer Community trainiert, welches entscheidet welche Bilder letztlich wieder der Community gefallen. Ohne ins Detail gehen zu dürfen, machen die damit Geld. Wenn jetzt jemand aus der Community sie verklagen würde, weil auch ein paar seiner Bilder zum Entscheidungsprozess des Netzes beitragen (das aus Millionen Bildern trainiert wurde) dann haben die ein Problem. Zwar ist der Anteil eines Bildes am Algorithmus minimal, aber man kann es nicht mehr aus dem Prozess herausnehmen ohne komplett neu zu trainieren. Aber wir will man diesen Anteil honorieren? Kein Mensch versteht mehr, was in den Millionen Neuronen abläuft.
Schon wenn ich ein paar Gewichte ändere habe ich ein anderes Netz. Und wenn ich ein Netz mit ähnlichen Bildern trainiere, komme ich zu einer vergleichbaren Lösung, aber einem komplett anderen Netz. Wie soll man das schützen?
Antwort von prime:
rudi hat geschrieben:
Konkretes Problem habe ich mal von einem KI-Startup gehört: Die haben ein riesiges Netz mit Bildern aus ihrer Community trainiert, welches entscheidet welche Bilder letztlich wieder der Community gefallen. Ohne ins Detail gehen zu dürfen, machen die damit Geld. Wenn jetzt jemand aus der Community sie verklagen würde, weil auch ein paar seiner Bilder zum Entscheidungsprozess des Netzes beitragen (das aus Millionen Bildern trainiert wurde) dann haben die ein Problem.
Bei sowas sichert man sich doch immer ab. Überall wo man etwas hochlädt muss man den Platformanbieter nicht-widerrufbare Verwendung-/Verwertungsrechte aller Art übertragen. Wer sowas nicht macht, der schafft sich unnötig Probleme.