He revisado varios proyectos populares en el campo de Crypto+AI del último mes y he encontrado tres cambios de tendencia significativos, junto con una breve introducción y comentarios sobre los proyectos:
1) La ruta técnica de los proyectos se vuelve más pragmática, comenzando a centrarse en datos de rendimiento en lugar de solo en conceptos abstractos;
2) Los escenarios de nicho se convierten en el foco de expansión, la IA general cede el paso a la IA especializada;
3) El capital presta más atención a la validación del modelo de negocio, los proyectos con flujo de caja son claramente más favorecidos;
Adjunto: Introducción al proyecto, análisis de puntos destacados, comentarios personales:
1. @yupp_ai
Introducción al proyecto: Plataforma de evaluación de modelos de IA descentralizada, completó una ronda de semillas de 33 millones de dólares en junio, liderada por a16z, con participación de Jeff Dean.
Análisis de puntos destacados: Aplica la ventaja del juicio subjetivo humano a las debilidades de la evaluación de IA. A través de la colaboración humana, se puntúan más de 500 grandes modelos, y los comentarios de los usuarios pueden canjearse por efectivo (1000 puntos = 1 dólar), lo que ha atraído a empresas como OpenAI para comprar datos, generando un flujo de caja real.
Comentario personal: Es un proyecto con un modelo de negocio relativamente claro, no es solo un modelo de quema de dinero. Sin embargo, prevenir el fraude es un gran desafío, y el algoritmo contra ataques de brujas necesita optimización continua. Sin embargo, considerando la escala de financiamiento de 33 millones de dólares, es evidente que el capital valora más los proyectos con validación de monetización.
2. @Gradient_HQ
Introducción al proyecto: Red de computación de IA descentralizada, completó una ronda de semillas de 10 millones de dólares en junio, liderada por Pantera Capital y Multicoin Capital.
Análisis de puntos destacados: A través del complemento del navegador Sentry Nodes, ya tiene cierto consenso en el mercado en el campo de DePIN de Solana, los miembros del equipo provienen de Helium, y han lanzado el protocolo de transmisión de datos Lattica y el motor de inferencia Parallax, explorando de manera sustancial en computación en el borde y verificabilidad de datos, logrando reducir la latencia en un 40% y soportando la conexión de dispositivos heterogéneos.
Comentario personal: La dirección es correcta, se alinea con la tendencia de "localización" de la IA. Sin embargo, al manejar tareas complejas, la eficiencia debe compararse con plataformas centralizadas, la estabilidad de los nodos en el borde sigue siendo un problema. Sin embargo, la computación en el borde es una nueva demanda que ha surgido de la competencia en web2AI y también es la ventaja del marco distribuido de web3AI, confío en que los productos concretos impulsados por el rendimiento real se implementen.
3. @PublicAI_
Introducción al proyecto: Plataforma de infraestructura de datos de IA descentralizada, a través de incentivos de tokens, contribuye datos de múltiples campos (salud, conducción autónoma, voz, etc.) de usuarios globales, acumulando ingresos de más de 14 millones de dólares, estableciendo una red de contribuyentes de datos de más de un millón.
Análisis de puntos destacados: Técnicamente integra verificación ZK y algoritmos de consenso BFT para garantizar la calidad de los datos, y también utiliza la tecnología de computación en la privacidad de Amazon Nitro Enclaves para cumplir con los requisitos de cumplimiento. Es interesante que han lanzado el dispositivo de captura de ondas cerebrales HeadCap, expandiéndose de software a hardware. El modelo económico también está bien diseñado, los usuarios pueden ganar 16 dólares + 500,000 puntos por 10 horas de etiquetado de voz, y el costo de suscripción de servicios de datos para empresas puede reducirse en un 45%.
Comentario personal: Siento que el mayor valor de este proyecto es que ha llegado a la demanda real de etiquetado de datos de IA, especialmente en campos como la salud y la conducción autónoma, donde los requisitos de calidad de datos y cumplimiento son extremadamente altos. Sin embargo, una tasa de error del 20% sigue siendo un poco más alta que el 10% de las plataformas tradicionales, la fluctuación en la calidad de los datos es un problema que necesita ser resuelto continuamente. La dirección de la interfaz cerebro-máquina tiene un gran espacio de imaginación, pero la dificultad de ejecución también es considerable.
4. @sparkchainai
Introducción al proyecto: Red de computación distribuida en la cadena de Solana, completó una financiación de 10.8 millones de dólares en junio, liderada por OakStone Ventures.
Análisis de puntos destacados: A través de la tecnología de fragmentación dinámica, agrega recursos GPU inactivos, soportando la inferencia de grandes modelos como Llama3-405B, con costos un 40% más bajos que AWS. El diseño de comercio de datos tokenizado es bastante interesante, convirtiendo a los contribuyentes de computación en partes interesadas, lo que también puede incentivar a más personas a participar en la red.
Comentario personal: Es un modelo típico de "agregación de recursos inactivos", lógicamente tiene sentido. Sin embargo, una tasa de error de verificación cruzada del 15% es realmente un poco alta, la estabilidad técnica aún necesita ser perfeccionada. Sin embargo, en escenarios como el renderizado 3D, donde no se requiere alta inmediatez, realmente tiene ventajas, la clave es si se puede reducir la tasa de error, de lo contrario, incluso el mejor modelo de negocio se verá afectado por problemas técnicos.
5. @olaxbt_terminal
Introducción al proyecto: Plataforma de trading de alta frecuencia de criptomonedas impulsada por IA, completó una ronda de semillas de 3.38 millones de dólares en junio, liderada por @ambergroup_io.
Análisis de puntos destacados: La tecnología MCP puede optimizar dinámicamente la ruta de trading, reduciendo el deslizamiento, con una mejora de eficiencia del 30% en pruebas. Se alinea con la tendencia de #AgentFi, encontrando un punto de entrada en el relativamente vacío campo del trading cuantitativo en DeFi, llenando una necesidad del mercado.
Comentario personal: La dirección es correcta, DeFi realmente necesita herramientas de trading más inteligentes. Sin embargo, el trading de alta frecuencia requiere una latencia y precisión extremadamente altas, la coordinación en tiempo real entre la predicción de IA y la ejecución en cadena aún necesita ser validada. Además, el ataque MEV es un gran riesgo, las medidas de protección técnica deben mantenerse al día.
Nota: Para más nuevos proyectos en el campo de AI+Crypto, todos pueden complementar en la sección de comentarios, seleccionaré proyectos con valor de investigación y los seguiré estudiando y compartiendo, gracias.
Mostrar original5,53 mil
21
El contenido de esta página lo proporcionan terceros. A menos que se indique lo contrario, OKX no es el autor de los artículos citados y no reclama ningún derecho de autor sobre los materiales. El contenido se proporciona únicamente con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo vinculado para obtener más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. El holding de activos digitales, incluyendo stablecoins y NFT, implican un alto grado de riesgo y pueden fluctuar en gran medida. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti a la luz de tu situación financiera.