올해 1월 인공지능 스타트업인 딥시크는 새로운 모델인 R1을 통해 두 가지 돌파구를 발표했습니다. 인공지능의 경제를 조용히 재정의했습니다.이 모델은 이전 모델의 비용의 1/40에 최고 성능을 달성2024년 12월 기준으로 딥시크의 V3 대용어 모델은 교육 비용을 90% 이상 줄였습니다.
딥시크의 두 가지 돌파구는 광범위한 관심을 끌었습니다.딥시크는 인공지능 모델들에게 그들의 추론 과정에 대해 자세히 설명하도록 요청하는 것이 정확성과 효율성을 향상시킨다는 것을 밝혀냈습니다.두 번째로, 딥시크는 인공지능을 사용하여 데이터의 수동 표시와는 완전히 독립하여 자체 데이터 세트를 생성합니다.딥시크가 주장하는 것만큼 저렴하지 않다는 주장이 있지만, 이러한 돌파구들은 확실히 인공지능 경제의 새로운 시대를 열었습니다.
인공지능의 비용 구조는 급격히 변화하고 있습니다. 성능 상승의 모든 달러는 스타트업, 기업 애플리케이션,및 인프라 투자이 변화는 시장 세력을 뒤집어 놓을 수 있으며, 궁극적으로 민첩한 스타트업이 단기적으로 기술 거장들을 따라잡을 수 있도록 도와주고 동시에 수익률을 높일 수 있습니다.
기술 거인들은 이미 인공지능 인프라 개발에 100억 달러 이상을 투자했고 그 규모는 계속 증가하고 있습니다.이제 그들은 이러한 거대한 투자에서 수익을 창출하고 더 민첩한 알고리즘에 대한 우위를 유지하는 방법을 고려해야합니다.급변하는 환경 속에서 기술 거대 기업과 스타트업 모두 명확한 신호를 받고 있습니다.또는 제거.
딥시크 이전과 후의 인공지능 시장 경관
딥시크가 등장하기 전, 스타트업들은 기술 거장들의 인프라 지출에매년 수십억 달러를 들여 거대한 데이터 센터를 건설하고 인공지능 기술의 발전으로 엄청난 이점을 얻었습니다.이 거인들은 막대한 데이터 자원을 보유하고 있을 뿐만 아니라 많은 박사 인재들을 모으고 있으며, 알고리즘의 발전도 그들의 강력한 기술력에 달려 있습니다.오랫동안 구축된 유통 네트워크는 제품을 기존 고객에게 빠르게 전달하고 피드백 루프를 통해 기술 발전을 가속화 할 수 있습니다..
하지만 오늘날 스타트업들은 기술 거대 기업들과 경쟁할 만큼 큰 규모입니다. 2025년만 해도 교육 모델의 비용은 95% 감소할 것입니다.기술 대기업의 인프라 장점을 크게 줄이는 것지난 3년 동안 합리화 비용은 거의 1000배나 감소했고 앞으로는 더욱 감소할 것으로 예상됩니다.알고리즘 이득의 기간은 45일에서 100일까지 줄이고 계속 감소할 수 있습니다..
교육 비용이 더 이상 주요 병목이 아니게 되면 추론 성능 (즉, 실시간 애플리케이션에서 AI 모델의 성능) 은 새로운 초점이 됩니다.더 큰 모델과 비교 가능한 전력을 제공하며 낮은 성능의 Gpus에서 작동 할 수있는 저렴한 모델더 똑똑한 인공지능 제품이 매우 저렴한 비용으로 공급될 수 있다면, 스타트업은 마침내 기술 거장들을 능가할 기회를 갖게 될 것이고, 동시에 수익을 올릴 것입니다.
효율적인 인력 분배는 경쟁자의 우위를 더욱 강화합니다. 더 이상 경쟁력 있는 AI 팀을 구성하기 위해 많은 수의 박사 수준의 인재를 고용할 필요가 없기 때문에 스타트업은 발전 할 수 있습니다.최적화기술 거대 기업보다 훨씬 저렴한 가격으로 모델을 배포합니다.도전자들은 15년 전에 클라우드 스타트업이 유닛 경제를 개선함으로써 이점을 얻었던 것과 마찬가지로 더 높은 수익률을 누릴 수 있습니다..
이 추세는 스타트업에 도움이 될 뿐만 아니라, 엔비디아와 같은 기업들도 더 큰 위험에 처하게 한다. 딥시크의 발표 이후 엔비디아 주가가 12% 하락했지만, 그 이후 다시 상승했다.칩 제조업체에 대한 위험은 수요가 교육 중심 하드웨어에서 더 효율적인 추론 솔루션으로 이동하기 때문에 증가합니다.소비자 수준의 신경 처리 장치 (Npus) 의 증가는 이러한 전환을 가속화하여 스마트 폰과 노트북과 같은 장치에서 인공지능 모델을 원시적으로 실행 할 수 있습니다.
인공지능 지출
도전자들에게 좋은 것은 기술 거대 기업들에게 나쁜 것입니다.인공지능 대기업들은 거의 본능적으로 딥시크의 지배력을 국가 안보에 영향을 끼치는 것으로 연결해스탠퍼드 대학교를 포함한 미국 연구자들이 딥시크의 기술을 복제하고 심지어는 뛰어넘는 것을 무시합니다.데이터 인프라 프로젝트에 막대한 금액을 투자하는 기업들은: 인공지능 모델 연구개발에 대한 막대한 지출이 낭비되었나요? 값싼 기술이 비싼 기술만큼 잘 작동한다면 왜 그렇게 많은 돈을 지출합니까?
역사적인 추세는 대부분의 인공지능 발전이 실제로 규모에 대한 과도한 자본 투자에 의존했다는 것을 시사합니다.그 당시 알고리즘적으로 최적이라고 여겨졌던 것을 초과하는새로운 기술 발전은 우리가 같은 성능을 더 적은 비용으로 달성 할 수 있음을 증명합니다.하이퍼스케일 클라우드 공급자의 확대는 여전히 더 큰 데이터 센터를 필요로 하고 추론 비용을 부담해야 합니다..
하지만 기술 거인들은 가만히 앉아 있지 않습니다. 우리는 이미 구글의 제미니 모델,마이크로소프트의 Azure AI Foundry와 메타의 오픈소스 LLaMA 모두 지배권을 놓고 경쟁합니다.오픈 소스 모델은 중요한 역할을 할 수 있습니다. 메타의 CEO 마크 저커버그는 개인화된 AI의 중요성을 강조했습니다. 즉, 개별 사용자의 필요, 문화 및 선호도에 맞춘 모델입니다..이 비전은 인공지능 개발의 더 넓은 추세와 일치합니다. 대규모 클라우드 인프라가 필요없이 높은 성능을 제공할 수 있는 더 작고 전문화된 모델입니다.
스타트업은 새로운 칩을 얻습니다.
동시에 오픈소스와 클로즈드 소스 거인은 서로 다른 목표를 가지고 있으며, 경쟁자의 우위를 더욱 강화합니다.메타와 같은 회사들이 만든 오픈소스 모델은 생태계 전반에 걸쳐 경쟁과 비용을 줄일 것입니다., 닫힌 소스 모델은 더 나은 기술을 통해 더 높은 수수료를 청구하려고합니다. 스타트업은 각 용도에 대한 최고의 가격 / 성능 비율을 달성하기 위해 두 캠프 사이의 경쟁을 활용 할 수 있습니다.수익률을 높이는 동시에.
비즈니스의 규모와 상관없이 메시지는 분명합니다. 시장 역동성, 컴퓨팅 능력 및 인재 등 그들에게 주어진 특수한 장점을 빠르게 활용하거나 실패에 직면하십시오.기술 발전 의 주기는 점점 짧아지고 있다새로운 성능 표준을 설정하는 데 걸리는 몇 달 혹은 몇 년이 필요했던 것부터,혁신은 전례 없는 속도로 발전하고 있습니다, 그리고 오류 용인 공간은 급격히 줄어들고 있습니다.