Eine Übersicht über einige beliebte Projekte im Crypto+AI-Bereich des letzten Monats zeigt drei signifikante Trends: 1) Die technischen Ansätze der Projekte werden pragmatischer, es wird mehr Wert auf Leistungsdaten gelegt als auf reine Konzeptverpackungen; 2) Nischenanwendungen werden zum Fokus der Expansion, allgemeine KI weicht spezialisierter KI; 3) Investoren legen mehr Wert auf die Validierung von Geschäftsmodellen, Projekte mit Cashflow sind deutlich gefragter; Zusätzlich: Projektübersicht, Highlight-Analyse, persönliche Einschätzung: 1. @yupp_ai Projektübersicht: Dezentralisierte AI-Modellbewertungsplattform, die im Juni 33 Millionen US-Dollar in einer Seed-Runde abgeschlossen hat, angeführt von a16z, mit Beteiligung von Jeff Dean. Highlight-Analyse: Nutzt den Vorteil menschlicher subjektiver Urteile zur Behebung der Schwächen in der AI-Bewertung. Durch Crowdsourcing werden über 500 große Modelle bewertet, Nutzerfeedback kann in Bargeld umgewandelt werden (1000 Punkte = 1 US-Dollar), was OpenAI und andere Unternehmen dazu gebracht hat, Daten zu kaufen, was zu echtem Cashflow führt. Persönliche Einschätzung: Ein Projekt mit einem relativ klaren Geschäftsmodell, das nicht nur auf Geldverbrennung basiert. Die Verhinderung von Fake-Bewertungen ist jedoch eine große Herausforderung, und die Algorithmen zur Abwehr von Angriffen müssen kontinuierlich optimiert werden. Angesichts der 33 Millionen US-Dollar an Finanzierungsvolumen ist klar, dass Investoren Projekte mit nachweislicher Monetarisierung bevorzugen. 2. @Gradient_HQ Projektübersicht: Dezentralisiertes AI-Computernetzwerk, das im Juni 10 Millionen US-Dollar in einer Seed-Runde abgeschlossen hat, angeführt von Pantera Capital und Multicoin Capital. Highlight-Analyse: Mit dem Sentry Nodes-Browser-Plugin hat es bereits eine gewisse Marktakzeptanz im Solana DePIN-Bereich erreicht. Die Teammitglieder stammen von Helium und haben das Lattica-Datenübertragungsprotokoll sowie die Parallax-Inferenz-Engine neu eingeführt, die wesentliche Fortschritte in der Edge-Computing- und Datenverifizierbarkeit gemacht haben, die Latenz um 40 % senken und die Anbindung heterogener Geräte unterstützen. Persönliche Einschätzung: Die Richtung stimmt, es passt gut zum Trend der "lokalen" AI. Aber bei der Bearbeitung komplexer Aufgaben muss es sich in Bezug auf Effizienz mit zentralisierten Plattformen messen, die Stabilität der Edge-Knoten bleibt ein Problem. Dennoch ist Edge-Computing eine neue Anforderung, die aus der Web2-AI hervorgegangen ist und auch die Vorteile des verteilten Rahmens der Web3-AI darstellt. Ich bin optimistisch, dass konkrete Produkte mit tatsächlicher Leistung zur Umsetzung beitragen werden. 3. @PublicAI_ Projektübersicht: Dezentralisierte AI-Dateninfrastrukturplattform, die globale Nutzer durch Token-Anreize zur Bereitstellung von Daten aus verschiedenen Bereichen (Gesundheitswesen, autonomes Fahren, Sprache usw.) anregt. Die kumulierten Einnahmen übersteigen 14 Millionen US-Dollar, und es wurde ein Netzwerk von über einer Million Datenbeitragsleistenden aufgebaut. Highlight-Analyse: Technisch integriert es ZK-Verifizierung und BFT-Konsensalgorithmen zur Sicherstellung der Datenqualität und verwendet Amazon Nitro Enclaves für datenschutzkonforme Berechnungen. Interessant ist die Einführung des HeadCap-Geräts zur Erfassung von Gehirnwellen, was eine Erweiterung von Software zu Hardware darstellt. Das wirtschaftliche Modell ist ebenfalls gut gestaltet, Nutzer können 16 US-Dollar + 500.000 Punkte für 10 Stunden Sprachannotation verdienen, und die Kosten für Unternehmensabonnements von Datenservices können um 45 % gesenkt werden. Persönliche Einschätzung: Ich denke, der größte Wert dieses Projekts liegt in der Erfüllung des echten Bedarfs an AI-Datenannotation, insbesondere in Bereichen wie Gesundheitswesen und autonomes Fahren, die hohe Anforderungen an Datenqualität und Compliance stellen. Allerdings ist die Fehlerquote von 20 % immer noch höher als die 10 % traditioneller Plattformen, und die Schwankungen in der Datenqualität sind ein fortlaufendes Problem, das gelöst werden muss. Der Bereich der Gehirn-Maschine-Schnittstellen hat viel Vorstellungskraft, aber die Umsetzung ist auch nicht einfach. 4. @sparkchainai Projektübersicht: Verteiltes Rechenleistungsnetzwerk auf der Solana-Blockchain, das im Juni 10,8 Millionen US-Dollar an Finanzierung abgeschlossen hat, angeführt von OakStone Ventures. Highlight-Analyse: Durch dynamische Sharding-Technologie werden ungenutzte GPU-Ressourcen aggregiert, was die Unterstützung von großen Modellen wie Llama3-405B ermöglicht und die Kosten um 40 % im Vergleich zu AWS senkt. Das Design des tokenisierten Datenaustauschs ist interessant, da es die Rechenleistungsbeitragsleistenden zu Stakeholdern macht und mehr Menschen zur Teilnahme am Netzwerk anregt. Persönliche Einschätzung: Ein typisches Modell zur "Aggregation ungenutzter Ressourcen", das logisch sinnvoll ist. Aber die Fehlerquote von 15 % bei der plattformübergreifenden Validierung ist tatsächlich etwas hoch, die technische Stabilität muss weiter verbessert werden. Dennoch hat es in Szenarien wie 3D-Rendering, wo die Echtzeitanforderungen nicht so hoch sind, Vorteile. Die entscheidende Frage ist, ob die Fehlerquote gesenkt werden kann, denn sonst wird selbst das beste Geschäftsmodell durch technische Probleme belastet. 5. @olaxbt_terminal Projektübersicht: AI-gesteuerte Plattform für den Hochfrequenzhandel mit Kryptowährungen, die im Juni 3,38 Millionen US-Dollar in einer Seed-Runde abgeschlossen hat, angeführt von @ambergroup_io. Highlight-Analyse: Die MCP-Technologie kann Handelswege dynamisch optimieren und Slippage reduzieren, was zu einer Effizienzsteigerung von 30 % führt. Es entspricht dem Trend #AgentFi und hat in dem relativ unbesetzten Bereich des quantitativen Handels in DeFi einen Einstieg gefunden, was eine Marktnachfrage erfüllt. Persönliche Einschätzung: Die Richtung ist richtig, DeFi benötigt tatsächlich intelligentere Handelswerkzeuge. Aber Hochfrequenzhandel erfordert extrem niedrige Latenz und hohe Genauigkeit, die Echtzeit-Kooperation zwischen AI-Vorhersage und On-Chain-Ausführung muss noch validiert werden. Zudem ist MEV-Angriff ein großes Risiko, und technische Schutzmaßnahmen müssen mit der Entwicklung Schritt halten. Hinweis: Weitere neue Projekte im AI+Crypto-Bereich können gerne in den Kommentaren ergänzt werden. Ich werde Projekte mit Forschungswert auswählen, um sie weiter zu untersuchen und zu teilen. Vielen Dank.
Original anzeigen
5.002
20
Der Inhalt dieser Seite wird von Dritten bereitgestellt. Sofern nicht anders angegeben, ist OKX nicht der Autor der zitierten Artikel und erhebt keinen Anspruch auf das Urheberrecht an den Materialien. Der Inhalt wird ausschließlich zu Informationszwecken bereitgestellt und gibt nicht die Ansichten von OKX wieder. Er stellt keine wie auch immer geartete Befürwortung dar und sollte nicht als Anlageberatung oder Aufforderung zum Kauf oder Verkauf digitaler Vermögenswerte betrachtet werden. Soweit generative KI zur Bereitstellung von Zusammenfassungen oder anderen Informationen verwendet wird, können solche KI-generierten Inhalte ungenau oder inkonsistent sein. Bitte lesen Sie den verlinkten Artikel für weitere Details und Informationen. OKX ist nicht verantwortlich für Inhalte, die auf Websites Dritter gehostet werden. Der Besitz digitaler Vermögenswerte, einschließlich Stablecoins und NFTs, ist mit einem hohen Risiko verbunden und kann starken Schwankungen unterliegen. Sie sollten sorgfältig abwägen, ob der Handel mit oder der Besitz von digitalen Vermögenswerten angesichts Ihrer finanziellen Situation für Sie geeignet ist.