Wie ‚intelligente‘ NFTs einige Warnzeichen setzen

advertisements

NFTs befinden sich auf einem klaren Kollisionskurs mit künstlicher Intelligenz, die theoretisch alle möglichen neuen Dienstprogramme freischalten wird, einschließlich KI-gesteuerter Avatare, die Gespräche führen können.

Da jedoch nur wenige Leute verstehen, wie diese Art von KI funktioniert, ist es erschreckend einfach, Käufer zu täuschen. Kürzlich haben eine Handvoll sogenannter „intelligenter“ oder „intelligenter“ NFT-Projekte damit begonnen, digitale Nichtstuer zu prägen, sie als bahnbrechende „KI“ zu vermarkten, Unterstützung von einflussreichen Investoren zu erhalten und Wiederverkaufsrekorde zu brechen. Bald wird der Markt mit „KI-NFTs“ überschwemmt, von denen die überwiegende Mehrheit absolut NGMI sind (die es nicht schaffen werden).

Lauren Kunze ist CEO von Pandorabots, einer führenden Chatbot-Plattform, die dialogorientierte KI-Anwendungen für Entwickler und globale Marken betreibt, und deren Tochtergesellschaft ICONIQ, die verkörperte KI wie Kuki entwickelt: einen Socialbot, der über eine Milliarde Nachrichten mit 25 Millionen ausgetauscht hat menschliche Fans. Kunze zeichnet sich dadurch aus, KI und ihre Anwendungen in der realen Welt einem breiten Publikum zu erklären, einschließlich auf Konferenzen wie TEDx, Mobile World Congress und SXSW sowie für Publikationen wie TechCrunch, Quartz und Venturebeat. Sie hat auch vier Romane verfasst, die von HarperCollins veröffentlicht wurden, und hat einen Abschluss in Literatur und Sprache sowie Neurowissenschaften von Harvard.

Hier sind fünf rote Flaggen, auf die Sie achten sollten:

1) Es ist ein billiger Deepfake

Wenn Sie noch kein Deepfake-betriebenes bewegendes Porträt gesehen haben, fühlt sich das erste Mal an, als würde ernsthafte Harry-Potter-Magie zum Leben erweckt. Aber diese scheinbare Zauberei ist durch zahlreiche kostenlose Apps (z. Wenn Sie also NFTs erstellen oder bereits besitzen und diese verschieben möchten, können Sie dies kostengünstig selbst tun. Alles, was über eine minimale Bewegung hinausgeht, wie Blinzeln oder Atmen, kann die Illusion aufgrund unvermeidlicher Inkongruenzen zwischen dem Bild und dem zugrunde liegenden Quellvideo stören. Wenn Sie also einen sich bewegenden NFT sehen, der sich nicht viel bewegt, verwendet er mit ziemlicher Sicherheit eine handelsübliche Deepfake-Software und keine spezielle geheime KI-Soße.

Diese billigen Deepfakes werden verwendet, um für Dinge wie Porträts historischer Persönlichkeiten zu werben, die, wenn sie an GPT-3 angeschlossen sind, sich in Echtzeit mit Ihnen unterhalten können. Die Sache ist die, dass für die Durchführung einer Echtzeit-Konversation mit einer KI ein 3D-CG-Modell erforderlich ist. Wenn Sie also über einen Deepfake stolpern, der als fähig beworben wird, sich in Echtzeit zu unterhalten, sollten die Alarmglocken läuten, da Deepfakes nicht wirklich autonom laufen. Vielmehr verlassen sie sich darauf, das Gesicht einer Person in einem Video während der Postproduktion (z. B. Zuck bei Trey Parker oder Tom Cruise bei einem talentierten TikTok-Imitator) oder während eines Videoanrufs (z Software wie Avatarify).

2) Es verwendet GPT-3 oder hat andere Abhängigkeiten von Drittanbietern

Das Generative Pre-trained Transformer 3 (GPT-3) Sprachmodell ist bei der Generierung von Wörtern und Bildern im Stil einer bestimmten Person oder eines bestimmten Genres erstaunlich, wenn genügend Beispiele vorhanden sind. Riesige, generative Sprachmodelle – abgesehen davon, dass sie langsam antworten und so teuer zu trainieren sind, dass GPT-3, das vor COVID-19 trainiert wurde, nicht weiß, dass das Virus existiert – werden im öffentlichen Internet trainiert, was ein bisschen dem Trinken aus der Öffentlichkeit ähnelt Toilette Menschen sind auch normalerweise Monster mit Toilettenmaul, wenn sie im Internet mit Software (und untereinander) sprechen, aber selbst die menschlichen Spieler eines GPT-3-basierten Rollenspiels wurden gestört, als der Algorithmus Kinder in sexuelle Szenarien einfügte. Aus diesem Grund achtet OpenAI sehr darauf, die Anwendungsfälle von Chatbots stark einzuschränken – und warum jedes NFT-Projekt, das vorgibt, GPT-3 zu verwenden, insbesondere um zusätzliche „Persönlichkeiten“ anzutreiben, die Augenbrauen hochziehen sollte.

Nach Jahren in der begrenzten Beta mit einer langen Warteliste hat OpenAI gerade angekündigt, dass seine GPT-3-API jetzt allgemein für Entwickler verfügbar ist. (Bis und es sei denn, Microsoft – das GPT-3 finanziert und anscheinend exklusiv lizenziert hat – schließt „Open“ AI.) Bisher haben einige Emporkömmlinge mit Early Access GPT-3 verwendet, um einzigartige „Persönlichkeiten“ für Ihr NFT zu erstellen und zu verkaufen. Aber jetzt, da die API wirklich für alle offen ist, kann in Wirklichkeit jeder eine GPT-3-basierte „Persönlichkeit“ generieren, indem er ihr ein paar Beispieltexte füttert. Ob OpenAI es Ihrem speziellen Anwendungsfall ermöglicht, live zu bleiben, ist eine andere Geschichte. Im vergangenen Sommer veröffentlichte der Chronicle eine herzzerreißende Geschichte über einen Mann, der einen GPT-3-betriebenen Dienst nutzte, um seinen toten Verlobten basierend auf ihren Texten wieder zum Leben zu erwecken. Monate später, in einer herzzerreißenden Wendung, hat OpenAI den Dienst ohne Vorwarnung geschlossen, weil er gegen seine strengen Bedingungen verstoßen hatte; Joshuas Verlobte Jessica starb im Wesentlichen zweimal. GPT-3 NFTs droht das gleiche Schicksal. Bei NFTs geht es letztendlich um verifiziertes Eigentum. Wenn Ihre gesprächige „KI“ NFT von Drittanbieterdiensten abhängt, die der Verkäufer weder besitzt, entwickelt noch kontrolliert, was genau besitzen Sie dann?

3) KI ist „auf der Roadmap“ (und überall in den Marketingmaterialien)

Während die GPT-3-Nutzung oder eine Abhängigkeit von Drittanbietern ein Grund für eine ernsthafte Pause sind, ist „KI“ in den Marketingmaterialien oder der Roadmap eines Projekts ohne Beweise für ihre Existenz im tatsächlichen Produkt ein Warnsignal. KI ist keine Zutat, die jeder einfach in die Mischung hinzufügen kann, sofern mehr Ressourcen und mehr Zeit zur Verfügung stehen. Angesichts der jüngsten Aufregung um einige KI-NFT-Projekte stellen die Leute Projekte jetzt fast so schnell mit „KI“ voran, wie sie „Metaverse“ an alles anhängen.

4) Das Team hat keinen KI-Hintergrund

Im Zweifelsfall ist die Teamseite eines Projekts normalerweise aufschlussreich, ob es darum geht, eine ehrgeizige KI-Roadmap zu erreichen. Keine KI-Expertise = riesige rote Fahne.

Selbst Teams mit KI-Know-how haben oft Schwierigkeiten, Ergebnisse zu erzielen. Zum Beispiel Little Sophia: eine Miniatur des unheimlichen humanoiden Sophia-Roboters, der seit 2019 mehrere Crowdfunding-Runden durchgeführt hat, mit einem sich ständig zurückziehenden Versanddatum (Dezember 2022 zum jetzigen Zeitpunkt) und zunehmend wütenden, desillusionierten Geldgebern. Sophia, die im Mai Schlagzeilen machte, als sie einen NFT verkaufte, der fälschlicherweise behauptete, die erste digitale Kunst eines Nicht-Menschen zu sein, und deren Schöpfer angegeben haben, dass sie „im Grunde lebendig“ sei, ist ein großer Teil des KI-Hype-Problems. (Der für 688.888 US-Dollar versteigerte NFT wurde tatsächlich in Zusammenarbeit mit einem echten menschlichen Künstler erstellt und ist jahrzehntelang älter als KI-Digitalkünstler wie Harold Cohens Aaron).

Wenn es um die breite Öffentlichkeit geht, scheinen diese Marketing-Gimmicks, einschließlich der Gewährung der saudi-arabischen Staatsbürgerschaft für Sophia, tatsächlich zu funktionieren. Im Jahr 2017 sammelte ein Ableger des Teams hinter Sophia in weniger als einer Minute 36 Millionen US-Dollar in einem Initial Coin Offering, um „Artificial General Intelligence“ oder dezentrale „AGI“ auf der Blockchain aufzubauen. Als ich das letzte Mal überprüft habe, müssen sie – zusammen mit den Technologiegiganten und Top-KI-Forschern – AGI noch lösen. Die Moral der Geschichte: Selbst wenn das Team über KI-Erfahrung verfügt, kann es immer noch zu kurz kommen, und wenn sein Haupthintergrund in ICOs, Marketing oder anderen Plänen liegt, um schnell reich zu werden, ist es möglicherweise an der Zeit, für die Berge zu rennen.

5) Eine Rose mit einem anderen Namen riecht… wie eine Tulpe

Apropos Marketing, der Typ, der den analogen Pet Rock erfunden hat, war ein Genie. (Auch ein Millionär, nachdem er über eine Million Haustierfelsen für vier Dollar pro Pop verkauft hatte.) Die Felsen waren nur Steine, mit einer niedlichen, mit Wortspielen gefüllten Pflege- und Fütterungsanleitung (Spoiler-Alarm: sie brauchten keine), verpackt in einem Pappkarton. Aber sie als „Haustier“ zu bezeichnen, löste eine Modeerscheinung aus, die mit Beanie Babies oder, wie ich sagen darf, Bored Apes vergleichbar ist. Das so genannte „erste iNFT“, das bei Sotheby’s für fast eine halbe Million Dollar versteigert wurde, ist nämlich nur ein Chatbot, der an einen Avatar angehängt ist: eine Technologie, die zwar weniger alt als Felsen ist, aber seit dem 1960er Jahre. Was völlig in Ordnung ist, solange Käufer wissen, dass das, was sie kaufen, tatsächlich nur ein verkörperter Chatbot mit einem anderen Namen ist.

Unabhängig von der Verpackung sind Chatbot-betriebene Avatare – ähm – KI-NFTs eine vielversprechende „neue“ Kategorie (ähnlich wie das Metaverse ein „zweites Leben“ hat). NFTs werden den digitalen Besitz revolutionieren und Geld dorthin bringen, wo es richtig hingehört: zurück in die Hände der Schöpfer. Aber selbst wenn die Branche andere Hürden wie ihren hohen CO2-Fußabdruck überwindet, werden wir es nur dann in den Mainstream schaffen, wenn wir gemeinsam auf Betrug und Lärm hinweisen, damit qualitativ hochwertige Arbeit glänzen kann.

About rashed

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert