
딥시크의 컴퓨팅 파워 부족, 대학의 AI 연구가 병목 현상을 겪고 있는가?
기사 출처:신지원

이미지 출처: 무계AI 생성
전미 TOP 5 대학의 머신러닝 박사 연구실조차도 다량의 컴퓨팅 파워를 제공할 수 있는 GPU가 없는 상황?
2024년 중반, 한 네티즌이 레딧에 올린 글이 곧장 커뮤니티의 큰 논란을 일으켰다—

연말에는 네이처(Nature)의 보고서가 학계가 GPU 확보에 직면한 심각한 도전을 폭로했다—연구자들이 학교의 GPU 클러스터 사용 시간을 신청하기 위해 줄 서야 하는 실정이다.

마찬가지로 중국 내 대학 실험실에서도 GPU 부족 문제가 매우 흔하다. 심지어 대학에서 학생들에게 자체 컴퓨팅 자원을 준비하게 요구하는 어이없는 소식까지 나오기도 했다.
이처럼 '컴퓨팅 파워'라는 병목 현상은 AI 자체를 매우 높은 진입 장벽을 가진 과목으로 만들고 있음을 알 수 있다.
AI 인재 부족과 동시에 컴퓨팅 파워 부족
동시에, 대규모 모델, 구체적 지능 등 첨단 기술의 급속한 발전은 전 세계적으로 인재 부족 현상을 초래하고 있다.
옥스퍼드대학 교수의 계산에 따르면 미국에서 AI 기술을 요구하는 직무 비율이 5배 증가했다.
전 세계적으로 보면, 기술 중심 AI(Tech-AI) 직무는 9배 증가했으며, 광범위한 AI(Broad-AI) 직무는 11.3배 증가했다.
특히 이 시기에 아시아 지역의 성장이 두드러졌다.

세계 각국의 대학들이 학생들이 중요한 AI 역량을 습득하도록 돕고 있지만, 앞서 언급했듯이 현재 컴퓨팅 파워는 일종의 '사치품'이 되었다.
이 격차를 메우기 위해 기업과 대학의 협력이 중요한 수단이 되고 있다.
쿤펑昇騰 교육과학혁신 인큐베이션 센터, 대학 연구 배치 시작
다행히 중국 대학들에 동일한 혁신 체계를 육성하기 위해 화웨이가 이미 움직이고 있다!
현재 화웨이는 북경대, 칭화대, 상하이교통대, 저장대, 중과대 등 5개 정상급 대학과 함께 '쿤펑昇騰 교육과학혁신 엑설런트 센터' 협약을 체결했다.
또한 화웨이는 복단대, 하얼빈공업대, 화중과학기술대, 시안교통대, 난징대, 베이항대, 베이리공, 전자과기대, 동남대, 베이징우편통신대 등 10개 대학과도 '쿤펑昇腾 교육과학혁신 인큐베이션 센터' 협력을 진행하고 있다.
엑설런트 센터와 인큐베이션 센터의 설립은 산학융합의 모범 사례다:
-
昇騰 생태계 도입을 통해 대학의 컴퓨팅 파워 부족 문제를 해결해 더 많은 연구 성과 창출을 크게 촉진한다;
-
교육과정 개혁을 통해 연구 주제, 산업 주제, 경진대회 주제 중심의 방식으로 컴퓨팅 산업의 최정상 인재 양성;
-
시스템 아키텍처, 컴퓨팅 가속 능력, 알고리즘 능력, 시스템 능력 등 분야에서 공동 돌파하여 세계적인 혁신 성과 창출;
-
'AI+X' 크로스오버 학문을 다수 구축함으로써 지능화된 생태계 발전을 선도한다.
AI 연구를 위한 완전히 자주적인 국산 컴퓨팅 파워 구축
현재 AI for Science의 의미는 말하지 않아도 명확하다.
구글 딥마인드의 최신 조사에 따르면, 박사후 연구원 3명 중 1명은 대규모 언어 모델(LLM)을 이용해 문헌 리뷰, 프로그래밍, 논문 작성 등을 지원받고 있다.
올해 노벨 물리학상과 화학상 역시 모두 AI 분야 연구자들에게 수여되었다.
AI가 연구를 지원하는 과정에서 GPU는 고성능 컴퓨팅이 필요한 분야에서 뛰어난 성능과 LLM 학습 및 추론에 강력한 능력을 바탕으로 귀중한 '황금'이 되었으며, 마이크로소프트, xAI, OpenAI 등 주요 기업들의 열광적인 경쟁 대상이 되고 있다.

그러나 미국의 GPU 제한 조치로 인해 중국의 AI 및 과학 연구 분야 발전이 어려움을 겪고 있다.
이러한 격차를 극복하기 위해 우리는 자주적이고 완전한 생태계를 구축하고 이를 발전시켜 나가야 한다.
컴퓨팅 파워 측면에서 화웨이의 昇騰 시리즈 AI 프로세서가 중국의 경쟁력 재건을 담당하고 있다.
그리고 컴퓨팅 파워 위에서는 NPU/AI 프로세서의 장점을 충분히 발휘하기 위해 자체 개발한 컴퓨팅 프레임워크가 필요하다.
众所周지 않지만, NVIDIA GPU 전용으로 설계된 CUDA 아키텍처는 AI 및 데이터 과학 분야에서 일반적으로 사용된다.
국내에서 진정으로 이에 맞서 대체 가능한 것은 CANN뿐이다.
CANN은 화웨이가 AI 시나리오를 위해 출시한 이종 컴퓨팅 아키텍처이며, 상위층에서는 PyTorch, TensorFlow, 昇思 MindSpore 등 주요 AI 프레임워크를 지원하고, 하위층에서는 昇騰 AI 프로세서를 활성화하며, 昇騰 AI 프로세서의 컴퓨팅 효율성을 향상시키는 핵심 플랫폼이다.
이러한 이유로 CANN은 기술적으로 여러 가지 장점을 타고났으며, 가장 중요한 것은 AI 컴퓨팅에 대한 더 깊은 소프트웨어-하드웨어 통합 최적화와 더욱 개방적인 소프트웨어 스택이다:
-
먼저 다양한 AI 프레임워크(PyTorch, TensorFlow 등 타사 제품 포함)를 지원한다;
-
둘째, 다양한 응용 시나리오에 맞춰 다단계 프로그래밍 인터페이스를 제공하여 사용자가 昇騰 플랫폼 기반의 AI 애플리케이션과 서비스를 신속하게 구축할 수 있도록 한다;
-
또한 모델 이전 도구를 제공하여 개발자가 프로젝트를 신속히 昇騰 플랫폼으로 이전할 수 있도록 돕는다.
현재 CANN은 이미 자체 생태계를 초기 구축하였다. 기술적으로 CANN은 방대한 수의 애플리케이션, 도구, 라이브러리를 포함하며 완벽한 기술 생태계를 갖추고 있어 사용자에게 원스톱 개발 경험을 제공한다. 또한 昇騰 기술 기반의 개발자 그룹도 점차 확대되어 미래 기술 응용과 혁신을 위한 기반을 마련하고 있다.

CANN이라는 이종 컴퓨팅 아키텍처 위에서는 AI 모델 구축을 위한 딥러닝 프레임워크가 필요하다.
거의 모든 AI 개발자는 딥러닝 프레임워크를 사용해야 하며, 거의 모든 딥러닝 알고리즘과 애플리케이션도 딥러닝 프레임워크를 통해 구현된다.
현재 시장에는 구글의 TensorFlow, 메타의 PyTorch 등 잘 알려진 주류 프레임워크들이 존재하며 거대한 생태계를 형성하고 있다.
대규모 모델 학습 시대에 접어들며 딥러닝 프레임워크는 수천 대 컴퓨터 규모에서도 효과적으로 학습할 수 있어야 한다.
2020년 3월 공식 오픈소스화된 전영역 딥러닝 프레임워크—화웨이 昇思 MindSpore는 국내 이 분야의 공백을 메우며 진정한 자주 통제를 실현했다.
MindSpore는 클라우드·엣지·단말 전영역 배포, 대규모 모델 학습 본연 지원, AI+과학계산 지원 등의 핵심 특성을 갖추고 있으며, 전영역 협업과 전과정 간소화된 본연 개발 환경을 구축함으로써 국내 연구 혁신과 산업 응용을 가속화하고 있다.

특히, 昇騰 AI 프로세서의 '최고 파트너'로서 MindSpore는 단말·엣지·클라우드 전영역을 지원하며 통일된 아키텍처 아래 '한 번 학습, 다중 배포'를 실현한다.
거대한 지구 시스템 시뮬레이션, 자율주행부터 작은 단백질 구조 예측까지 모두 昇思 MindSpore로 가능하다.
딥러닝 오픈소스 프레임워크는 오직 광범위한 개발자 생태계를 통해 완성도를 높이고 더 큰 가치를 발휘할 수 있다.
조사기관 Omdia가 2023년 발표한 《중국 인공지능 프레임워크 시장 조사 보고서》에 따르면, MindSpore는 이미 AI 프레임워크 사용률 1군에 진입하여 TensorFlow에 이어 두 번째로 높은 순위를 차지했다.

또한 다양한 산업의 추론 애플리케이션이야말로 AI 가치를 해방하는 핵심이다. GenAI의 급속한 발전 과정에서 대학과 기업 모두 고속 추론 처리에 대한 수요가 급증하고 있다.
예를 들어 고성능 최적화 컴파일러인 TensorRT는 대규모 모델 추론 성능 향상에 탁월한 도구다. 양자화 및 희소성 기술을 활용해 모델 복잡도를 낮추고 딥러닝 모델의 추론 속도를 효율적으로 최적화할 수 있다. 그러나 문제는 이것이 NVIDIA GPU에만 지원된다는 점이다.
같은 원리로, 우리가 컴퓨팅 아키텍처와 딥러닝 프레임워크를 갖춘 것처럼 이에 맞는 추론 엔진도 존재하는데, 그것이 바로 화웨이 昇騰 MindIE다.

MindIE는 전영역 AI 추론 가속 엔진으로, 업계 최첨단 추론 가속 기술을 통합하였으며 오픈소스 PyTorch의 특성도 계승하고 있다.
유연성과 실용성을 동시에 고려했으며, 다양한 주류 AI 프레임워크와 원활하게 연동되며 다양한 유형의 昇騰 AI 프로세서를 지원하고 다단계 프로그래밍 인터페이스를 제공한다.
전스택 통합 최적화와 계층적 AI 기능 개방 방식을 통해 MindIE는 昇騰 하드웨어의 극한 컴퓨팅 파워를 해방하여 사용자에게 효율적이고 빠른 딥러닝 추론 솔루션을 제공하며, 모델 추론 및 애플리케이션 개발에서 기술 난이도가 크고 개발 단계가 많다는 문제를 해결하고 모델 처리량 성능을 향상시키며 애플리케이션 출시 시간을 단축시켜 '백모천태(百模千态)'를 실현하고 다양한 AI 비즈니스 요구를 만족시킨다.
이처럼 CANN, MindSpore, MindIE 등의 자주 혁신 기술은 국산 컴퓨팅 파워의 단점을 메울 뿐 아니라 모델 학습, 프레임워크 사용성, 추론 성능 등 면에서 도약적 돌파를 이루었으며, 외국의 첨단 기술 스택에 직접 대응하고 있다.
세계적인 수준의 인큐베이션 센터 구축
기술적으로 우위를 갖추었을 뿐 아니라, 앞으로 수십 년간 昇騰 컴퓨팅 파워를 사용하는 것은 국가 현실에도 부합한다 할 수 있다.
오직 국산 자체 개발 컴퓨팅 파워만이 변덕스러운 외부 환경의 영향에서 벗어나 연구 기반의 안정성을 보장할 수 있다.
이제 플랫폼은 마련되었고, 어떻게 하면 대학 교수와 학생들이 이를 사용하는 법을 배울 수 있을까?
지난해 9월 6일부터 화웨이는 북경대, 상하이교통대, 저장대, 중과대 등 4개 대학에서 제1기 昇騰 AI 특별 트레이닝 캠프를 차례로 개최했다. 수백 명이 신청한 학생 중 석박사 비율이 90%에 달했으며, 교육과정은 昇騰 분야의 CANN, MindSpore, MindIE, MindSpeed, HPC, 쿤펑 개발 도구 등 다양한 과목을 포함했다.
트레이닝 캠프에서는 핵심 기술을 자세히 이해할 수 있을 뿐 아니라 실습 기회도 제공된다. 이러한 구성은 학생들의 새로운 지식 습득 특성에 매우 부합하며, 점진적이고 체계적인 학습을 가능하게 한다.
예를 들어 상하이교통대 세션에서는 첫날 '이전(Migration)'을 주제로 하여 학생들이 昇騰 AI 기반 하드웨어·소프트웨어 솔루션, Pytorch 모델의 昇騰 원생 개발 사례 실습, MindIE 추론 솔루션 특징 및 이전 사례 등을 이해하도록 한다.
둘째 날은 '최적화(Optimization)'를 주제로 昇騰 이종 컴퓨팅 아키텍처 CANN, Ascend C 오퍼레이터 개발, 대규모 모델 장기간 시퀀스 추론 최적화 실습 등을 포함한다.
이전 및 최적화 과정 설정은 장기적인 안목에서 매우 중요하다.
현재 많은 대학의 실습 수업이 기본적으로 CUDA/X86 기반으로 운영되고 있으나 제재의 영향으로 컴퓨팅 파워 부족 문제가 점점 더 두드러지고 있다. 이때 만약 이전 방법을 익힌다면 프로젝트를 昇騰 플랫폼으로 옮겨 학문 활동을 계속 유지할 수 있다.
기본 지식을 습득한 후 학생들은 실습 사례 부분에서 직접 실습하게 된다. 화웨이 전문가들이 학생들을 일대일로 지도하며, 대규모 모델 양자화, 추론, 코드랩스(Codelabs) 구현 등 과정에서 昇騰 기술 스택을 익히고 대규모 모델 추론 전체 과정을 체험하게 한다.
실습을 통해 학생들은 昇騰 생태계에 대해 직접 경험하며 이후 기술 분야에서의 작업을 위한 견고한 기반을 마련하게 된다.

상하이교통대 제1기 트레이닝 캠프에서 학생들이 실습 중
교육과정 외에도 화웨이는 대학 개발자를 대상으로 오퍼레이터 챌린지 대회를 개최하여 오퍼레이터 개발 엘리트를 발굴할 계획이다.
이 대회는 개발자들이 昇騰 컴퓨팅 자원과 CANN의 기본 기능을 기반으로 심층 혁신과 실천을 하도록 유도하며, AI와 산업 융합을 가속화하고 개발자 역량 향상을 촉진한다.
또한 인큐베이션 센터는 학술 성과에도 큰 관심을 기울이고 있다.
쿤펑 또는 昇騰 컴퓨팅 핵심 기술과 도구를 활용해 학술 연구를 수행하는 학생은 대학원 장학금을 신청할 수 있다. 이 기간 동안 논문이 국제 정상 학회나 국내 정상 저널에 게재될 경우 추가 보상도 제공된다.
동시에 화웨이는 쿤펑&昇騰 생태계 파트너들과 함께 유 talent 프로그램을 추진하고 있다.
이 프로그램은 재학생들이 이론에서 실무로 넘어가 실제 기업 업무 현장에 몸담게 하고, 우수한 학생들이 조기에 기업과 연결될 수 있도록 돕는다.
현재 유 talent 프로그램은 15개 도시에서 200여 개 기업과 협력하여 2000개 이상의 기술 직무를 제공했으며, 1만 명 이상의 대학생들이 취업에 성공했다.
요약하면, 이러한 교육 실습과 인센티브 프로그램을 통해 학생들의 참여 열의를 크게 높일 수 있다. 학술 경험 향상과 연구 성과 창출뿐 아니라 경력과 배경을 더욱 빛나게 만들어 취업 시장에서 가산점을 받고 국내외 정상 기업들의 관심을 받기 쉬워진다.
그렇다면 최신 기술과 활용법을 익힌 후, AI가 빠르게 변화하는 오늘날 어떤 진정한 돌파적인 연구 성과를 창출할 수 있을까?
Sora가 2024년 텍스트-비디오 생성 AI 열풍을 일으킨 이후 텍스트-비디오 생성 대규모 모델이 계속 등장하고 있다. 북경대와 토끼전시(Rabbit Show)의 오픈소스 텍스트-비디오 생성 프로젝트인 Open-Sora Plan은 업계에 큰 충격을 주었다.
사실 Sora가 공개되기 전 팀은 이미 오픈소스 버전 Sora 개발을 준비하고 있었으나, 컴퓨팅 파워와 데이터 요구 조건을 충족하지 못해 프로젝트가 한동안 중단되었다. 다행히 북경대와 화웨이가 공동으로 쿤펑昇騰 교육과학혁신 엑설런트 센터를 설립하면서 팀은 곧바로 컴퓨팅 파워 지원을 받았다.
팀은 원래 NVIDIA A100을 사용했으나 昇騰 생태계로 이전한 후 여러 놀라운 발견을 하게 되었다—
CANN의 지원으로 고효율 병렬 컴퓨팅이 가능해져 대규모 데이터셋 처리 속도가 크게 빨라졌으며, Ascend C 인터페이스 라이브러리는 AI 애플리케이션 개발 프로세스를 단순화했고, 오퍼레이터 가속 라이브러리는 알고리즘 실행 성능을 추가로 최적화했다.
더욱 중요한 것은 개방적인 昇騰 생태계가 대규모 모델과 애플리케이션의 신속한 적응을 가능하게 한다는 점이다.
따라서 팀원들이 昇騰 생태계를 처음 접했음에도 불구하고 짧은 시간 안에 금세 익숙해질 수 있었다.

이후 훈련 과정에서 팀은 계속해서 놀라운 점을 발견했다. 예를 들어 torch_npu를 사용해 개발할 때 전체 코드가 昇騰 NPU에서 학습 및 추론이 원활하게 이루어졌다.
모델 분할이 필요할 때 昇騰 MindSpeed 분산 가속 키트는 풍부한 대규모 모델 분산 알고리즘과 병렬 전략을 제공했다.
또한 대규모 훈련 중 MindSpeed와 昇騰 하드웨어의 안정성은 다른 컴퓨팅 플랫폼보다 훨씬 뛰어나며 1주일 이상 중단 없이 작동할 수 있었다.
결과적으로 단 한 달 만에 Open-Sora Plan이 정식 출시되어 업계로부터 큰 인정을 받았다.

Open-Sora Plan이 생성한 이 <흑신화: 오공> 장면은 영화 같은 대작급으로 수많은 네티즌들을 감탄하게 했다
또한 昇騰 컴퓨팅 파워를 기반으로 동남대는 다중 모드 교통 대규모 모델 MT-GPT를 개발했다.
기존에 교통 대규모 모델의 실용화는 매우 어려웠는데, 이유는 서로 다른 정부 부처가 데이터를 수집해 데이터 사이로가 발생하고, 데이터 형식과 표준이 통일되지 않으며, 교통 데이터의 이질성과 다원성 등 때문이다.
이 문제들을 해결하기 위해 팀은 MT-GPT(Multimodal Transportation Generative Pre-trained Transformer)라는 이름의 다중 모드 교통 대규모 모델 개념 프레임워크를 고안하여 다중 관점, 다중 입자의 교통 시스템 과제에 데이터 기반 의사결정을 제공했다.
그러나 대규모 모델 개발 및 훈련 과정에서 컴퓨팅 파워 기반에 대한 요구는 극도로 높다.
이를 위해 팀은 昇騰 AI 기술을 활용해 교통 대규모 모델의 개발, 훈련, 튜닝, 배포를 가속화하기로 결정했다.
개발 단계에서는 Transformer 대규모 모델 개발 키트가 다원 이종 지식 말뭉치와 다중 모드 특징 인코딩을 통해 다중 모드 생성형 문제 이해 정확도를 공동으로 향상시켰다.
훈련 단계에서는 昇騰 MindSpeed 분산 훈련 가속 키트가 교통 대규모 모델에 다차원, 다중 모드, 다중 모드 가속 알고리즘을 제공했다.
튜닝 단계에서는 昇騰 MindStudio 전과정 도구 체인이 교통 전문 분야 지식 미세조정을 결합해 훈련을 미세조정했다.
배포 단계에서는 昇騰 MindIE 추론 엔진이 교통 대규모 모델의 원스톱 추론을 지원할 뿐 아니라 도시간 이전 분석, 개발, 디버깅, 튜닝도 지원한다.
요약하자면 북경대의 Open-Sora는 Sora를 재현하는 이전 프로젝트이며, 동시에 오픈소스 프로젝트로서 글로벌 개발자들이 다양한 시나리오에 응용할 수 있도록 더 잘 지원한다.
동남대의 다중 모드 교통 대규모 모델 MT-GPT는 昇騰 컴퓨팅 파워가 기술 성과 전환에 실제로 기여하는 능력을 보여주며, 도시 교통 산업에 직접 기여하고 있다.
이렇게 하여 산학연의 완전한 순환이 이루어진다.
이러한 풍부한 성과들은 또 한 번 증명한다. 엑설런트 센터/인큐베이션 센터는 대학에 학술 연구 및 과학 혁신의 기반이 될 뿐 아니라 다수의 AI 최정상 인재를 양성하고 세계를 선도하는 연구 성과를孵化할 수 있다는 것을.
예를 들어 북경대 팀이 Open-Sora Plan을 개발하는 과정에서 위안리 교수가 매일 학생들과 화웨이 昇騰 팀과 함께 코드 및 알고리즘 개발에 관한 브레인스토밍을 조직했다.
모두가 미지의 강을 건너는 과정에서 북경대 팀의 다수 학생들이 고품질의 연구 실천에 직접 참여하며 뛰어난 연구 창의성을 보여주었다.
평균 연령 23세의 이 팀은 국산 AI 비디오 애플리케이션 발전의 핵심 세력이 되었다.
이 과정에서 쿤펑昇騰 생태계를 익힌 젊은 학습자 집단도 계속 커지고 있다.
따라서 대학이 국산 컴퓨팅 파워와 플랫폼을 기반으로 연구를 수행하는 것은 정상급 지성의 지원을 받는 동시에 화웨이 기술 생태계와 응용을 확장하는 효과도 있다.
우리는 어떤 혁신 체계를 구축해야 하는가?
이처럼 산학협력이라는 새로운 패러다임에서 화웨이는 이미 본격적으로 출발했다.
2019년 컴퓨팅 제품 라인을 설립한 후 화웨이는 2020년에 즉시 교육부와 지능기반 협력 프로젝트를 체결하여 전국 72개 주요 대학에서 교육 협력을 진행했다.
당시 쿤펑/昇騰의 일부 기술 지식이 이미 일부 대학의 필수 과목에 포함되었다.
그러나 대학에 대한 투자는 중장기적 육성 과정이다. 학생과 교사들이 관련 기술을 우선적으로 이해하도록 해야 수년 후 더 큰 가치를 발휘할 수 있다.
따라서 화웨이는 매년 10억 위안을 투자하여 쿤펑, 昇騰의 원생 생태계와 인재 육성을 추진할 계획이다. 이 전략의 실행은 대학 인재 및 개발자들에게 더 풍부한 자원과 더 넓은 발전 공간을 제공할 것이며, 이미 10만 장의 쿤펑 개발 보드와 昇騰 추론 개발 보드 증정 계획을 시작하여 교육 실험, 경진대회 실습 및 과학기술 혁신에서 쿤펑, 昇騰 기술을 적극적으로 탐색하고 적용하도록 장려하고 있다.
이 계획에 따라 교사와 학생들은 개발 보드를 가까이서 접하고 시험해볼 수 있다. 교사의 수업이나 연구 실험을 막론하고 대학 구성원들은 자신이 하고 싶은 혁신을 시도하며 새로운 영감을 얻을 수 있다.

샹청파이(Xiangchengpai)가 화웨이 昇騰과 손잡고 출시한 OrangePi AIpro 개발 보드는 대부분의 AI 알고리즘 프로토타입 검증 및 추론 애플리케이션 개발 요구를 충족시키며, AI 엣지 컴퓨팅, 딥비전 학습, 드론, 클라우드 컴퓨팅 등 다양한 분야에 광범위하게 적용 가능하며 강력한 성능과 광범위한 적용성을 보여주고 있다
다른 한편으로 중국의 현재 특수한 상황—외부의 기술 봉쇄는 우리에게 남은 시간이 많지 않다는 것을 의미한다. 우리는 반드시 독립적이고 통제 가능한 기술 스택을 가져야 한다.
원생 개발은 미래에 이미 불가피한 추세다. 오직 Made in China만이 중국의 미래 대국 추세에 가장 부합한다.
국산화가 대세가 되면서 쿤펑/昇騰과 같은 국산 기술 스택도 각종 IT 인프라 전반에 걸쳐 확산될 것이다.
엑설런트 센터와 인큐베이션 센터의 출범은 업계의 자신감도 점점 높이고 있다.
예상할 수 있듯이 몇 년간의 인큐베이션 후 국산 기술 기반을 익힌 연구 인재들이 꾸준히 쿤펑/昇騰 기술 루트를 계승 발전시키며 세계를 선도할 충분한 연구 성과를 창출할 것이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












