:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
24/12/25 20:59
국내에선 네이버가 1황으로 알고있긴 합니다만 LLM시장은 결국 winner takes all 할 것 같아서 국내최강이란 지위만으로 어떻게 될 지 모르겠네요
24/12/25 21:04
저도 비슷하게 생각합니다. 처음 클로바X가 나왔을 때도 환각 있고 별로란 느낌이었는데 그 이후 빅테크 AI는 엄청나게 발전한 반면 네이버 쪽 AI는 새모델도 안나온지라... 아무리 그래도 성능 차이가 이렇게 나버리면 과연 국산화라는 명분 감안하더라도 써먹을 수 있는 게 맞나 우려스럽긴 합니다. 뭐 실제 현장에 계신 분들이 다 고려해서 선택하실 문제겠지만요.
24/12/25 21:05
결국엔 전세계 회사에서 2~3개의 회사가 분야 별로 먹을 것 같아서 국내는 활용 방법에 대해서 고민하는 포지션이고 실제 LLM 자체 개발은 의미가 없을 것 같네요. 현재는 LLM도 돈이 받침이 되어야 개발이 가능해서 국내에서는 쉽지 않을 거라 봅니다.
24/12/25 21:14
SKT와 카카오도 자체 LLM을 보유했다고 볼 수 있습니다.
네이버의 경우에는 그나마 저 중에서 가장 나은 수준이라고 볼 수 있습니다만, 이마저도 글로벌 빅테크와의 격차에 점점 좌절감을 느끼는 요즘입니다. 펀딩의 규모로 볼 때, 70B+ 급의 LLM은 이제 제대로 만들기 힘들거라고 보이고, 그나마 10B 내외의 sLLM만 제대로 만들 수 있을 것으로 보입니다. 컴퓨팅 자원을 확보했다 치더라도, 저작권 확보된 Trillion 단위 토큰의 한국어 코퍼스를 모으는 것도 쉽지 않습니다. 더 나아가 post-training 단계에서의 기술력도 큰 차이가 나는 것 같습니다.
24/12/25 23:56
작은 거라도 만들면서, AI 인재들의 경험과 실력을 쌓는 건 중요하다고 봅니다. AI는 계속해서 기하급수적으로 발전하기 곤란할 것입니다. S곡선으로 결국 꺾여서 plateau 고원에 이를 것이고, 그와 함께 하드웨어는 저렴해질 것입니다. 그러면 어느 순간, 한국의 기업도 돈을 크게 쓰게 될 타이밍이 오게 될 거라 봅니다. — 개인적인 바램이 있다면, 그때를 위해서 핵발전소를 더 늘렸으면 합니다. 발전소는 지어지는데 시간이 많이 걸리기 때문에, 지금 결정해야 합니다. 미래 전력 수요를 과소평가하고 있을 가능성이 크다고 봅니다. 전기가 부족하거나 비싸다면, AI뿐만 아니라, 우리나라 제조업의 미래가 위태로워질 겁니다.
24/12/26 01:27
물론 아무것도 안하는 것 보단 낫지만,, 세 발 자전거를 운전해 본 경험으로 F1을 운전해 본 경험과 비교하는 것은 어불성설입니다.
이 업계에 제법 오래 있었지만, 지금만큼 두렵고 좌절한 적은 없었습니다. 내수 시장에서 자라온 한국 기업들이 감당할 수 있는 스케일의 펀딩이 아니라고 생각합니다. (물론 그럼에도 불구하고 매우 작은 가능성을 위해서라도 끝까지 최선을 다해야 한다고 생각합니다.) 전력 문제는 매우 공감합니다. 국가 차원에서 AI에 대한 대전략이 필요합니다. 단순히 정치인들 K-AI 같은 포퓰리즘이 아니라, 제대로된 전략이 필요합니다.
24/12/26 10:27
같은 생각입니다.
국가가 나서서 경쟁력 있는 AI 데이터센터를 구축하고 클라우드 방식으로 기업이 활용할 수 있도록 지원하는 방법이 후발국가가 취할 수 있는 최선일 겁니다. 기업들이 빅테크 기업의 LLM을 이용하는 것은 보안 문제가 있기 때문에 이 부분에서 차별화가 가능하다는 생각이고, 이 점을 강조하면 큰 호응을 불러올 수 있을 것입니다. 기존의 원자력발전소는 송전탑 문제가 걸림돌이지만 HVDC(고압직류) 송전 방식을 취하면 송전탑 없이 지중매설 또는 해저 케이블로 송전을 할 수 있습니다. 이 마저도 주민들의 저항에 부딪힐 가능성을 염두에 두고 SMR 개발을 같이 추진할 필요가 있습니다. 뉴스케일파워가 SMR로 경제성을 확보하는데 실패했으니 우리의 제조업 경쟁력으로 이 문제를 극복할 수 있을지는 장담할 수 없을 것입니다. RE-100 문제도 간과할 수 없기 때문에 앞서 언급한 HVDC 송전은 태양광 확산을 위해서라도 빨리 확산시켜야 할 것이고요.
24/12/25 21:46
아무리 한국어 기반 데이터로 학습을 시켜봤자 기반모델의 성능 차이가 너무 크게 벌어진 상황이라 의미가 없습니다. 티맥스 윈도우나 마찬가지입니다.
현재 LLM 경쟁은 기술 경쟁에서 자본력 대결 단계로 접어든 상태고 컴퓨팅파워의 격차로 인해 이미 역전을 노릴 수 있는 시나리오는 없다고 보고 있습니다. 파인튜닝도 GPT4 시기에나 의미 있는 성능차를 만들어냈지 o1부터는 그냥 기반모델이 압도적으로 좋으면 뭘 더할 필요도 없다는 게 결론입니다.
24/12/25 22:06
ollama에 가보면 야놀자에서 올려놓은 모델도 있고 링크브릭스에서 올려놓은것도 있습니다. 최근 말씀하신 LG것도 올라와있네요. 누구나 간단하게 설치해볼수있습니다.
https://ollama.com/search?q=korean 관심있으신분은 허깅페이스에 가셔서 찾아보셔도 좋겠습니다.
24/12/25 22:28
어떤 답변을 원하시는 지는 모르겠지만
LLM이 중요한 게 아니라 LLM으로 학습시킬 Data Pool이 얼마나 많은가가 더 중요합니다. 1,000개를 학습시키냐 10,000개를 학습하느냐에 따라서 정확도가 달라지는 데 제가 있는 의료쪽의 경우 미국이나 중국하고 거의 상대가 안됩니다. 아무리 native protocol 수정해서 Efficiency 높여봤다 Pooling 숫자가 적으면 의미가 없습니다.
24/12/25 22:55
실사용하는 입장에서는 미국이나 중국 모델아니면 성능이 너무 떨어집니다. API 수준에서 적용할 때는 중국 모델도 사용하기 힘들고 가성비 생각해서 gpt-4o나 클로드 3.5 소넷정도네요.
한국은...모르겠습니다. 현재 한국에 있는 모든 GPU 리소스를 따졌을 때 미국이나 중국 빅테크 단일 기업의 1/10도 안될 걸요?
24/12/25 23:07
중국 AI 쪽도 관심 있는데 주로 어떤 거 쓰시나요? 오픈소스나 로컬로 돌리기엔 Qwen2.5가 끝판왕 느낌이더라고요. 아니면 추론 쪽 딥시크?
24/12/25 23:10
말씀하신 Qwen2.5를 주로 사용하고 LLM은 아니지만 영상쪽에서는 kling을 사용합니다. 얼마전 공개한 구글 veo2를 제외하고서는 영상쪽에서는 가장 좋은 성능 같습니다.
24/12/26 08:42
좀 심하게 이야기 하면 815 콜라 같은거죠. 그런데 제대로 따라하기도 힘든거죠. 어차피 미국 중국 회사들과 경쟁하겠다고 만든 것이 아닙니다.
24/12/26 09:47
외국에 데이터를 넘겨주는 것 자체가 꺼려지는 은행, 의료, 정부쪽 데이터는 함부로 외국계 LLM을 도입할 수가 없고, 범용적인 AI가 (모든 상황에 대한 대답을 하는 게 아니라 은행이면 주로 금융쪽 질문에만 잘 대답할 수 있고, 굳이 연예쪽 질문에 대한 대답은 안 해도 되는) 아닌 국소적인 AI로도 충분하기 때문에 이런 영역에서 국내 AI가 의미가 있을 수는 있다고 하는데, 좀 더 지켜봐야 할 것 같습니다.
구글이 전세계를 장악한 상황에서도 네이버가 나름 국내 검색엔진을 굳건히 지켜왔는데, 사실 학술쪽 등에서는 네이버는 거의 쓰레기나 다름없지만 맛집이나 여행 검색 쪽으로는 구글이 상대가 안 돼서 꽤나 선방한 점도 있고, 앞으로 AI 시장에서도 이러한 틈새시장을 노려 국내 AI가 의미있게 살아남을지 결국 거대한 미국의 AI 기술과 자본앞에 무릎꿇을지 잘 모르겠습니다.
24/12/26 11:08
전반적 검색 성능으로 봤을 때 네이버가 구글에 상대도 안되지만, 검색 "서비스"라는 관점에서 봤을 때 네이버가 지킬 자리가 있었던 것 처럼, AI도 네이버의 광대한 국내 서비스랑 엮여서 지킬 자리가 있을 수 있을 것 같습니다.
|