LLM / ์‚ฌ์ „ํ•™์Šต / FLOPs / GPU Hours
2023๋…„ 8์›” 2์ฃผ์ฐจ ์…€๋ ‰ํŠธ์Šคํƒ€ ๋‰ด์Šค๋ ˆํ„ฐ
๊ธ€: ๊ถŒํ˜์ฃผ ใ…ฃ ๊ฒ€์ˆ˜: ์ •์ธ์˜                                            
์ดˆ๊ฑฐ๋Œ€ AI, ํ•™์Šต ๋น„์šฉ์€ ์–ผ๋งˆ
'AI๋Š” ์ƒˆ๋กœ์šด ์ „๊ธฐ'๋ผ๊ณ  ๊ฐ•์กฐํ•˜๋Š” ์•ค๋“œ๋ฅ˜ ์‘ ์Šคํƒ ํฌ๋“œ๋Œ€ ๊ต์ˆ˜. ์ด๋ฏธ์ง€. CB Insights.

๋งŽ์€ ์—ฐ์‚ฌ๋“ค์ด ์˜ค๋Š˜๋‚  AI๋ฅผ ์ „๊ธฐ์™€ ๊ฐ™์€ ์ธํ”„๋ผ์— ๋น—๋Œ€์–ด ์„ค๋ช…ํ•ฉ๋‹ˆ๋‹ค. ํ˜„์žฌ AI ๊ธฐ์ˆ ์€ ๋งˆ์น˜ ๋„ค์ด๋ฒ„์™€ ์ฟ ํŒก์˜ ๋ฐฐ์†ก ์„œ๋น„์Šค์ฒ˜๋Ÿผ ์ดˆ๊ธฐ ๊ตฌ์ถ•์—” ๋ง‰๋Œ€ํ•œ ๋น„์šฉ์ด ๋“ค์ง€๋งŒ ๋งŽ์ด ํ™œ์šฉ๋ ์ˆ˜๋ก ํ‰๊ท  ์ƒ์‚ฐ ๋‹จ๊ฐ€๋Š” ๋‚ฎ์•„์ง€๋Š” ๊ตฌ์กฐ์ž…๋‹ˆ๋‹ค.

์ด๋Š” ์ •ํ™•ํžˆ ๋งํ•˜๋ฉด AI ์ค‘์—์„œ๋„ โ€˜์ดˆ๊ฑฐ๋Œ€ AIโ€™ โ€˜ํŒŒ์šด๋ฐ์ด์…˜ ๋ชจ๋ธโ€™์— ๋Œ€ํ•œ ์„ค๋ช…์ธ๋ฐ์š”, ํ˜„์žฌ ์ƒ์„ฑ AI ์—ดํ’์˜ ๊ณจ์ž ๋˜ํ•œ โ€˜์ˆ˜๋งŽ์€ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๊ฐ€์ง„ ์ดˆ๊ฑฐ๋Œ€ ๋ชจ๋ธ์„ ๋Œ€๊ทœ๋ชจ ๋ฐ์ดํ„ฐ๋กœ ์‚ฌ์ „ ํ•™์Šต์‹œํ‚ค๋ฉด ํŒŒ์ธ ํŠœ๋‹ ๋“ฑ์„ ํ†ตํ•ด ์ „๋ฌธ ๋ถ„์•ผ์—๋„ ์‰ฝ๊ฒŒ ํ™œ์šฉํ•  ์ˆ˜์žˆ๋‹คโ€™๋Š” ๋‚ด์šฉ์œผ๋กœ ์š”์•ฝ๋ฉ๋‹ˆ๋‹ค.

์ด์ฒ˜๋Ÿผ ์ž˜ ๋งŒ๋“  ํŒŒ์šด๋ฐ์ด์…˜ ๋ชจ๋ธ์€ ์–ด๋–ค ์‚ฐ์—… ๋ถ„์•ผ์—๋„ ์ ์šฉ๋  ์ˆ˜ ์žˆ๋Š” ๊ฐ€๋Šฅ์„ฑ์„ ๊ฐ€์ง€๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ํ•˜์ง€๋งŒ ๋งŒ๋“ค๊ธฐ ๋น„์‹ธ์ฃ . ์•„์ง๊นŒ์ง€ ์šฐ๋ฆฌ์—๊ฒŒ ๊ฐ€์žฅ ์นœ์ˆ™ํ•œ ํŒŒ์šด๋ฐ์ด์…˜ ๋ชจ๋ธ์€ ๋งˆ์ดํฌ๋กœ์†Œํ”„ํŠธ๋กœ๋ถ€ํ„ฐ 10์กฐ ์ด์ƒ ํˆฌ์ž๋ฅผ ๋ฐ›์€ OPEN AI์˜ GPT์™€ ๊ตฌ๊ธ€์˜ PaLM ์‹œ๋ฆฌ์ฆˆ ์ •๋„์ž…๋‹ˆ๋‹ค.

์ดˆ๊ฑฐ๋Œ€ AI, LLM์„ ํ•™์Šต ์‹œํ‚ค๋Š” ๋ฐ๋Š” ๋ˆ์ด ์–ผ๋งˆ๋‚˜ ๋“œ๋Š”๊ฑธ๊นŒ์š”? ๊ฒฐ๋ก ๋ถ€ํ„ฐ ๋งํ•˜๋ฉด '์–ด๋–ค GPU ์ธ์Šคํ„ด์Šค๋ฅผ ์–ผ๋งˆ๋‚˜ ์˜ค๋ž˜ ์‚ฌ์šฉํ–ˆ๋Š”์ง€' ํŒŒ์•…ํ•˜๋ฉด ๋น„์šฉ์„ ๊ฐ„๋‹จํžˆ ๊ณ„์‚ฐํ•ด ๋ณผ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ๋‹ค๋งŒ ์ด๋ฒˆ ๋ ˆํ„ฐ์—์„œ๋Š” ๋ชจ๋ธ ํ•™์Šต๊ณผ ์—ฐ์‚ฐ๋Ÿ‰, GPU์™€ ๊ด€๋ จ๋œ ๊ฐœ๋…๋“ค์„ ์†Œ๊ฐœํ•˜๋ฉฐ ์–ด๋–ค ์š”์†Œ๋“ค์„ ํ•จ๊ป˜ ๊ณ ๋ คํ•ด์•ผ ํ•˜๋Š”์ง€ ์ฒœ์ฒœํžˆ ์‚ดํŽด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค :)
 ์ ์ ˆํ•œ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์ฐพ๊ธฐ ์œ„ํ•œ ๋ฌด์ˆ˜ํ•œ ์—ฐ์‚ฐ ๋ฐ˜๋ณต 
์ฃผ์š” ๋ชจ๋ธ๋ณ„ ํ•™์Šต ์—ฐ์‚ฐ๋Ÿ‰(๋‹จ์œ„, petaFLOP)
Our World in Data, Computation used to train notable artificial intelligence systems


๋จผ์ € AI โ€˜ํ•™์Šตโ€™์— ์–ผ๋งˆ๋‚˜ ๋งŽ์€ ์—ฐ์‚ฐ์ด ํ•„์š”ํ•œ์ง€ ๋”ฐ์ ธ๋ด์•ผ ํ•ฉ๋‹ˆ๋‹ค. ํ•™์Šต์ด๋ž€ AI ๋ชจ๋ธ์ด ์ ์ ˆํ•œ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐ’์„ ์ฐพ๋Š” ๊ณผ์ •์ธ๋ฐ์š”, (ํŒŒ๋ผ๋ฏธํ„ฐ๋Š” ๋ชจ๋ธ์ด ์ž…๋ ฅ๋ฐ›์€ ์ •๋ณด๋ฅผ ์–ด๋–ป๊ฒŒ ์ฒ˜๋ฆฌํ• ์ง€ ๊ฒฐ์ •ํ•˜๋Š” ์—ญํ• ์„ ํ•ฉ๋‹ˆ๋‹ค) ํ•™์Šต์„ ํ†ตํ•ด AI๋Š” ํŒŒ๋ผ๋ฏธํ„ฐ์— ์ˆซ์ž๋ฅผ ์ผ์ผ์ด ๋Œ€์ž…ํ•˜๊ณ  ๊ณ„์‚ฐํ•˜๋ฉด์„œ, ์ •๋‹ต๊ณผ ์˜ค์ฐจ๋ฅผ ์ค„์—ฌ๋‚˜๊ฐ‘๋‹ˆ๋‹ค. ์ด๋Š” ๋ฌด์ˆ˜ํ•œ ์—ฐ์‚ฐ์„ ๋ฐ˜๋ณตํ•˜๋Š” ๊ณผ์ •์ด๋ฉฐ ์—ฐ์‚ฐ ํšŸ์ˆ˜๊ฐ€ ๋Š˜์–ด๋‚จ์— ๋”ฐ๋ผ ํ•™์Šต์—๋Š” ๋” ๋งŽ์€ ์ปดํ“จํŒ… ์ž์›์ด ํ•„์š”ํ•ฉ๋‹ˆ๋‹ค.


์—ฐ์‚ฐ ํšŸ์ˆ˜๋ฅผ ์ธก์ •ํ•˜๋Š” ๋‹จ์œ„๋กœ๋Š” ๋ณดํ†ต FLOPs(FLoating point OPerations)๊ฐ€ ํ™œ์šฉ๋ฉ๋‹ˆ๋‹ค. *FLOPs๋Š” FLOPS์™€ ๋‹ค๋ฆ…๋‹ˆ๋‹ค. ๋ชจ๋‘ ๋Œ€๋ฌธ์ž๋กœ ๋œ FLOPS๋Š” โ€œFLoating point OPerations per Second"์˜ ์•ฝ์–ด๋กœ, ํ•˜๋“œ์›จ์–ด ๊ณ„์‚ฐ ์†๋„๋ฅผ ๋‚˜ํƒ€๋‚ด๋Š” ๋‹จ์œ„์ž…๋‹ˆ๋‹ค. ๊ทธ๋ ‡๊ธฐ์— ์–ด๋–ค ๋ฌธ์„œ์—์„œ๋Š” AI ํ•™์Šต์— ๋Œ€ํ•œ ์—ฐ์‚ฐ ํšŸ์ˆ˜๋ฅผ ๋‚˜ํƒ€๋‚  ๋•Œ "FLOPs" ๋Œ€์‹  "FLOP"์ด๋ผ๋Š” ํ‘œํ˜„์„ ์‚ฌ์šฉํ•˜๊ธฐ๋„ ํ•ฉ๋‹ˆ๋‹ค

'PaLM: Scaling Language Modeling with Pathways' Google Research. 22.04

๋ชจ๋ธ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐœ์ˆ˜์— ๋”ฐ๋ฅธ ์‚ฌ์ „ ํ•™์Šต FLOPs ๋Ÿ‰.


๋ชจ๋ธ ํ•™์Šต์— ํ•„์š”ํ•œ FLOPs ์ˆ˜๋Š” ๋ชจ๋ธ ๊ตฌ์กฐ์™€ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐœ์ˆ˜, ํ•™์Šต ๋ฐ์ดํ„ฐ ๊ทœ๋ชจ ๋ฐ ์—ํฌํฌ ์ˆ˜(epoch, ๋ฐ์ดํ„ฐ์…‹์„ ๋ฐ˜๋ณต ํ•™์Šตํ•˜๋Š” ํšŸ์ˆ˜) ๋“ฑ์— ๋”ฐ๋ผ ๋‹ฌ๋ผ์ง‘๋‹ˆ๋‹ค. ๋” ๋งŽ์€ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ, ๋” ๋งŽ์€ ๋ฐ์ดํ„ฐ๋กœ, ๋” ๋งŽ์ด ๋ฐ˜๋ณตํ•˜์—ฌ ํ•™์Šตํ• ์ˆ˜๋ก ์—ฐ์‚ฐ ํšŸ์ˆ˜๊ฐ€ ์ฆ๊ฐ€ํ•˜๋Š” ๊ตฌ์กฐ์ž…๋‹ˆ๋‹ค.


์ผ๋ก€๋กœ ๊ตฌ๊ธ€์ด ํŒŒ๋ผ๋ฏธํ„ฐ๊ฐ€ ๊ฐ๊ฐ 80์–ต ๊ฐœ์™€ 5,400์–ต ๊ฐœ์ธ PaLM ๋ชจ๋ธ์„ 7,800์–ต ๊ฐœ ํ† ํฐ์œผ๋กœ ํ•™์Šต์‹œ์ผฐ์„ ๋•Œ FLOPs ์ˆ˜๋Š” ๊ฐ๊ฐ 4.29ร—10^22๊ณผ 2.56ร—10^24 ์ž…๋‹ˆ๋‹ค. 10์˜ 8์ œ๊ณฑ์ด '์–ต', 12์ œ๊ณฑ์ด '์กฐ'์ž„์„ ์ƒ๊ฐํ•ด๋ณด๋ฉด ์ •๋ง ํฐ ์ˆ˜๋ผ๊ณ  ๋А๊ปด์ง€๋„ค์š”. ๋‘ ๋ชจ๋ธ์˜ FLOPs ์ˆ˜๋Š” ๋Œ€๋žต ํŒŒ๋ผ๋ฏธํ„ฐ ๊ทœ๋ชจ๋งŒํผ์ธ ์•ฝ 60๋ฐฐ ์ฐจ์ด๊ฐ€ ๋‚ฉ๋‹ˆ๋‹ค.

ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐœ์ˆ˜์™€ ํ•™์Šต ๋ฐ์ดํ„ฐ ๊ทœ๋ชจ์— ๋”ฐ๋ฅธ ํ•™์Šต ๋ฐ ์ถ”๋ก  FLOPs๋Ÿ‰

์ž๋ฃŒ. a16z enterprise.

GPU Hours์™€ MFU, ์–‘์žํ™”
GPU ๋ชจ๋ธ์— ๋”ฐ๋ฅธ ์‹œ๊ฐ„๋‹น ๊ฐ€๊ฒฉ. A100 80GB ๊ธฐ์ค€ ์‹œ๊ฐ„๋‹น 2๋‹ฌ๋Ÿฌ๊ฐ€ ์กฐ๊ธˆ ๋„˜๋Š”๋‹ค.
์ž๋ฃŒ. coreweave. gpu-cloud-pricing.

์ด๋งŒํ•œ ์—ฐ์‚ฐ์„ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ๋Š” ์ปดํ“จํŒ… ์ž์›์„ ๊ฐ€์ง„ ๊ธฐ์—…์€ ์†Œ์ˆ˜์ž…๋‹ˆ๋‹ค. ๋Œ€๋ถ€๋ถ„ ๊ธฐ์—…์—์„œ๋Š” ๋กœ์ปฌ ํ•˜๋“œ์›จ์–ด๋‚˜ ๋ฐ์ดํ„ฐ ์„ผํ„ฐ๊ฐ€ ์•„๋‹Œ Amazon Web Services(AWS), Microsoft Azure ๋“ฑ ์„œ๋“œํŒŒํ‹ฐ ํด๋ผ์šฐ๋“œ ์ปดํ“จํŒ…์„ ํ†ตํ•ด ์ปดํ“จํŒ… ์ž์›์„ ๋งˆ๋ จํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ์ดˆ๊ธฐ ํˆฌ์ž ๋น„์šฉ์„ ์ ˆ๊ฐํ•˜๊ณ , ํ•„์š”์— ๋”ฐ๋ผ ๊ทœ๋ชจ๋ฅผ ์กฐ์ •ํ•  ์ˆ˜ ์žˆ์œผ๋ฉฐ, ์œ ์ง€ ๊ด€๋ฆฌ ๋ถ€๋‹ด์„ ์ค„์ผ ์ˆ˜ ์žˆ๊ธฐ ๋•Œ๋ฌธ์ž…๋‹ˆ๋‹ค. ์ด๋Ÿฌํ•œ ํด๋ผ์šฐ๋“œ ์„œ๋น„์Šค์˜ ๊ณผ๊ธˆ ๊ตฌ์กฐ๋Š” ์‚ฌ์šฉํ•œ ๋งŒํผ ๋ˆ์„ ๋‚ด๋Š” ์ •๋Ÿ‰์ œ์ž…๋‹ˆ๋‹ค.

์—ฌ๊ธฐ์„œ ๊ณผ๊ธˆ ๋‹จ์œ„๋Š” FLOPs๊ฐ€ ์•„๋‹Œ โ€˜GPU hoursโ€™ โ€˜GPU daysโ€™ ์ž…๋‹ˆ๋‹ค. ์–ด๋–ค GPU ์ธ์Šคํ„ด์Šค๋ฅผ ์–ผ๋งˆ๋‚˜ ์˜ค๋ž˜ ์‚ฌ์šฉํ–ˆ๋Š”์ง€๋ฅผ ํ‘œํ˜„ํ•˜๋Š” ์ˆ˜์น˜์ธ๋ฐ์š”, ์•ž์„œ ๊ณ„์‚ฐํ•œ FLOPs ๊ฐ’์— ๊ธฐ๋ฐ˜ํ•ด ๋Œ€๋žต์ ์ธ GPU hours๋ฅผ ์ถ”์ •ํ•  ์ˆ˜๋„ ์žˆ์ง€๋งŒ ๋” ์ •ํ™•ํ•œ ์กฐ์‚ฌ๋ฅผ ์œ„ํ•ด์„œ๋Š” Model FLOPS Utilization(MFU) ๊ฐœ๋…๊ณผ ๋ชจ๋ธ์˜ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ทœ๋ชจ๋ฅผ ๋”ฐ์ ธ๋ด์•ผ ํ•ฉ๋‹ˆ๋‹ค.
'PaLM: Scaling Language Modeling with Pathways' Google Research. 22.04

๋จผ์ € 'Model FLOPS Utilization' ๊ฐœ๋…์€ ๋ชจ๋ธ์ด ํ•™์Šต ์‹œ GPU ์„ฑ๋Šฅ์„ ์–ผ๋งˆ๋‚˜ ์ž˜ ํ™œ์šฉํ•˜๊ณ  ์žˆ๋Š”์ง€ ๋‚˜ํƒ€๋‚ด๋Š” ๋น„์œจ ์ง€ํ‘œ์ž…๋‹ˆ๋‹ค. MFU๊ฐ€ ๋†’์„์ˆ˜๋ก ํ•˜๋“œ์›จ์–ด ์—ฐ์‚ฐ ์‹œ๊ฐ„์€ ์ค„๊ณ , ๋น„์šฉ์€ ๊ฐ์†Œํ•ฉ๋‹ˆ๋‹ค. ๊ตฌ๊ธ€ PaLM ๋ชจ๋ธ ์‚ฌ์ „ ํ•™์Šต ์‹œ MFU๋Š” 46.2%๋ฅผ ๊ธฐ๋กํ–ˆ์ง€๋งŒ, ์ผ๋ฐ˜์ ์œผ๋กœ MFU๋Š” 50% ๋ฏธ๋งŒ์ž…๋‹ˆ๋‹ค.


๋‹ค์Œ์œผ๋กœ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐœ์ˆ˜๋Š” GPU ๋ฉ”๋ชจ๋ฆฌ ์ข…๋ฅ˜๋ฅผ ๊ฒฐ์ •ํ•˜๋Š” ๋ฐ ๋ฐ˜์˜๋ฉ๋‹ˆ๋‹ค. ์ผ๋ฐ˜์ ์œผ๋กœ ๋” ๋งŽ์€ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๊ฐ€์ง„ ๋ชจ๋ธ์ผ์ˆ˜๋ก ํ•™์Šต์— ๋” ํฐ ๋ฉ”๋ชจ๋ฆฌ๋ฅผ ๊ฐ€์ง„ ๊ณ ๊ฐ€์˜ GPU๊ฐ€ ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค. ํ•˜์ง€๋งŒ ๊ฐ€์žฅ ๋ฉ”๋ชจ๋ฆฌ๊ฐ€ ํฐ ์นฉ์„ ํ™œ์šฉํ•˜๋”๋ผ๋„ ๋ชจ๋“  ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ํ•˜๋‚˜์˜ GPU์— ๋กœ๋“œํ•  ์ˆ˜๋Š” ์—†์Šต๋‹ˆ๋‹ค.


๊ทธ๋ž˜์„œ ๋Œ€๊ทœ๋ชจ AI ํ•™์Šต์—๋Š” ๋ณ‘๋ ฌ ๋ฐ ๋ถ„์‚ฐ ์ปดํ“จํŒ…, ์–‘์žํ™” ๊ธฐ์ˆ ๋“ค์ด ํ™œ์šฉ๋ฉ๋‹ˆ๋‹ค. ํฐ ๋ชจ๋ธ์€ ์—ฌ๋Ÿฌ ๊ธฐ๊ธฐ์— ๋ถ„์‚ฐ๋  ์ˆ˜ ์žˆ์–ด์•ผ ํ•˜๋ฉฐ, ์—ฌ๊ธฐ์„œ๋ถ€ํ„ฐ๋Š” ์ปดํ“จํŒ…์„ ์„ค๊ณ„ํ•˜๋Š” ์—”์ง€๋‹ˆ์–ด๋ง์˜ ์˜์—ญ์ž…๋‹ˆ๋‹ค.


์–‘์žํ™”์™€ ์ปดํ“จํŒ… ์ฃผ์ œ๋ฅผ ๋”์šฑ ์‚ดํŽด๋ณด๊ณ  ์‹ถ์€ ๋ถ„๊ป˜๋Š” ํ—ˆ๊น…ํŽ˜์ด์Šค ๋ธ”๋กœ๊ทธ โ€˜Fine-tuning 20B LLMs with RLHF on a 24GB consumer GPUโ€™๋ฅผ ์ถ”์ฒœ๋“œ๋ฆฝ๋‹ˆ๋‹ค :)

์‚ฌ์ „ ํ•™์Šต์— ๋น„ํ•ด ๋งŽ์ด ์ €๋ ดํ•œ ํŒŒ์ธ ํŠœ๋‹
Benchmarking Large Language Models on NVIDIA H100 GPUs with CoreWeave
์ž๋ฃŒ. Mosaic ML.

์ด์ œ ์ง€๊ธˆ๊นŒ์ง€์˜ ์„ค๋ช…์„ ๊ธฐ๋ฐ˜์œผ๋กœ ์œ„ ํ‘œ๋ฅผ ์ดํ•ดํ•ด ๋ณผ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ์ƒ์—…์ ์œผ๋กœ ํ™œ์šฉ๊ฐ€๋Šฅํ•œ ์˜คํ”ˆ์†Œ์Šค LLM โ€˜MPTโ€™๋กœ ์œ ๋ช…ํ•œ Mosaic ML ์ž๋ฃŒ์ž…๋‹ˆ๋‹ค. ํ‘œ๋Š” 70์–ต ๊ฐœ์˜ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๊ฐ€์ง„ 7B MosaicGPT๋ชจ๋ธ์„ 1,340์–ต ๊ฐœ ํ† ํฐ์— ๋Œ€ํ•ด ํ•™์Šต์‹œ์ผฐ์„ ๋•Œ ๋“œ๋Š” ๋Œ€๋žต์ ์ธ ๋น„์šฉ์„ ๋‚˜ํƒ€๋ƒ…๋‹ˆ๋‹ค.

๋งŒ์•ฝ ํ•™์Šต์— NVIDIA A100์„ ํ™œ์šฉํ•˜๋ฉด ํ•„์š”ํ•œ GPU Hours๋Š” 1๋งŒ 1,462์‹œ๊ฐ„์ด๋ฉฐ ์ด๋ฅผ ๊ธˆ์•ก์œผ๋กœ ํ™˜์‚ฐํ•˜๋ฉด ์•ฝ 2๋งŒ 5,300๋‹ฌ๋Ÿฌ(ํ•œํ™” ์•ฝ 3,340๋งŒ ์›)๊ฐ€ ๋ฉ๋‹ˆ๋‹ค. A100๋ณด๋‹ค ์„ฑ๋Šฅ์ด ๋†’์€ H100์„ ํ™œ์šฉํ•˜๋ฉด GPU Hours์™€ ๋น„์šฉ์ด ํ•จ๊ป˜ ์ค„์–ด๋“ญ๋‹ˆ๋‹ค. ํ‘œ์—์„œ fp8๊ณผ bf16์€ ๋ชจ๋ธ์„ ์••์ถ•ํ•˜๋Š” ์–‘์žํ™” ๋ฐฉ์‹์„ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.

'Llama 2: Open Foundation and Fine-Tuned Chat Models' Meta, 23.07.


์ตœ๊ทผ ๊ณต๊ฐœ๋œ Meta AI์˜ Llama 2์˜ ๋ชจ๋ธ ์นด๋“œ๋„ ์‚ดํŽด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค. 70B ๋ชจ๋ธ ์‚ฌ์ „ ํ•™์Šต์— A100-80GB ๊ธฐ์ค€ 172๋งŒ GPU Hour๊ฐ€ ์†Œ์š”๋œ ๊ฑธ ์•Œ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ์•ž์„œ ์‚ดํŽด๋ณธ 7B MosaicGPT์˜ 100๋ฐฐ ์ด์ƒ์ž…๋‹ˆ๋‹ค. ๊ทธ๋งŒํผ ๋” ๋งŽ์€ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๋ฐฉ๋Œ€ํ•œ ๋ฐ์ดํ„ฐ๋กœ, ์ •๊ตํ•˜๊ฒŒ ํ•™์Šต์‹œ์ผฐ๋‹ค๋Š” ์˜๋ฏธ๋กœ ํ•ด์„๋ฉ๋‹ˆ๋‹ค. ๋‹จ์ˆœ ํ™˜์‚ฐ GPU ๋น„์šฉ๋งŒ 350๋งŒ ๋‹ฌ๋Ÿฌ(ํ•œํ™” ์•ฝ 46์–ต ์›)๊ฐ€ ๋„˜์–ด๊ฐ€๋„ค์š”.


-๋‹จ, ๋ฉ”ํƒ€๋Š” Llama 2 ์‚ฌ์ „ ํ•™์Šต์„ ์ž์ฒด ์Šˆํผ์ปดํ“จํ„ฐ์—์„œ ์ง„ํ–‰ํ–‡์Šต๋‹ˆ๋‹ค.

"We used custom training libraries, Metaโ€™s Research Super Cluster, and production clusters for pretraining. Fine-tuning, annotation, and evaluation were also performed on third-party cloud compute" Llama 2: Open Foundation and Fine-Tuned Chat Models


์ด์™€ ๋‹ฌ๋ฆฌ ํŒŒ์ธ ํŠœ๋‹์—๋Š” ํ›จ์”ฌ ์ ์€ ๋น„์šฉ์ด ๋“ญ๋‹ˆ๋‹ค. ์Šคํƒ ํฌ๋“œ ๋Œ€ํ•™์—์„œ๋Š” ์ด์ „ ๋ฒ„์ „์ธ Llama 7B ๋ชจ๋ธ์„ "Alpaca 7B๋กœ ํŒŒ์ธ ํŠœ๋‹ํ•˜๋Š” ๋ฐ 8๊ฐœ์˜ 80GB A100์—์„œ 3์‹œ๊ฐ„์ด ๊ฑธ๋ ธ๋‹ค"๊ณ  ํ–ˆ๋Š”๋ฐ์š”. ๋Œ€๋ถ€๋ถ„์˜ ํด๋ผ์šฐ๋“œ ์ปดํ“จํŒ… ์„œ๋น„์Šค์—์„œ ๊ทธ ๊ฐ€๊ฒฉ์€ 100๋‹ฌ๋Ÿฌ ๋ฏธ๋งŒ์ž…๋‹ˆ๋‹ค.


๋ณดํ†ต ํŒŒ์ธ ํŠœ๋‹ ๋‹จ๊ณ„์—์„œ๋Š” ํ•™์Šต์— ํ™œ์šฉํ•˜๋Š” ๋ฐ์ดํ„ฐ ๊ทœ๋ชจ๋„ ์ž‘๊ณ , ๋ชจ๋“  ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ํ•™์Šต์‹œํ‚ค์ง€๋„ ์•Š๊ธฐ ๋•Œ๋ฌธ์ž…๋‹ˆ๋‹ค. ์™œ ๋Œ€๋ถ€๋ถ„ ๊ธฐ์—…๋“ค์ด ๋ชจ๋ธ์„ ์ง์ ‘ ๊ฐœ๋ฐœํ•˜์ง€ ์•Š๊ณ , ํŒŒ์ธ ํŠœ๋‹ํ•˜๊ฑฐ๋‚˜ API๋ฅผ ํ™œ์šฉํ•˜๋Š” ์ง€ ์•Œ ์ˆ˜ ์žˆ๋Š” ๋Œ€๋ชฉ์ž…๋‹ˆ๋‹ค. ์š”์ฆ˜์—๋Š” ๊ธฐ์ˆ  ์ฃผ๊ถŒ๊ณผ ๊ตญ๊ฐ€๊ฒฝ์Ÿ๋ ฅ ๊ด€์ ์—์„œ ์ดˆ๊ฑฐ๋Œ€ AI ์œก์„ฑ์„ ๊ฐ•์กฐํ•˜๋Š” ๊ธฐ์‚ฌ๋“ค๋„ ์‹ฌ์‹ฌ์น˜ ์•Š๊ฒŒ ๋ณด์—ฌ์„œ, ๊ฐœ์ธ์ ์œผ๋กœ ์žฌ๋ฐŒ๊ฒŒ ํฅ๋ฏธ๋กญ๊ฒŒ ์ฝ๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค :)


์ด๋ฒˆ ๋ ˆํ„ฐ๋Š” ์—ฌ๊ธฐ๊นŒ์ง€์ž…๋‹ˆ๋‹ค. ์ฝ์–ด์ฃผ์…”์„œ ๊ฐ์‚ฌํ•ฉ๋‹ˆ๋‹ค!

์ฐธ๊ณ  ์ž๋ฃŒ:
*์ด ๋ชจ๋ธ ํ•™์Šต์— ๋”ฐ๋ฅด๋Š” ์—ฐ์‚ฐ๋Ÿ‰ ์ถ”์ •
(์ปดํ“จํŒ… = ํ•™์Šต ์‹œ๊ฐ„ ร— GPU/TPU ์ˆ˜ ร— ์ตœ๋Œ€ FLOP/s ร—

* AI ํšŒ์‚ฌ์˜ ๋น„์šฉ ์š”์†Œ๋ฅผ ๋ถ„์„ํ•˜๋Š” Andreessen Horowitz ์•„ํ‹ฐํด
Navigating the High Cost of AI Compute, Guido Appenzeller et al.

๋”์šฑ ์ „๋ฌธ์ ์ด๊ณ  ํ’๋ถ€ํ•œ ๋‚ด์šฉ์€ ๋งํฌ์—์„œ ํ™•์ธํ•˜์‹ค ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.
8์›” 2์ฃผ AI ๋‰ด์Šค ํด๋ฆฌํ•‘
 
#1.

์•Œ๋ฆฌ๋ฐ”๋ฐ” ํด๋ผ์šฐ๋“œ, ๋…์ž LLM ์˜คํ”ˆ์†Œ์Šค๋กœ ๊ณต๊ฐœ I IT๋ฐ์ผ๋ฆฌ ๋งํฌ


์•Œ๋ฆฌ๋ฐ”๋ฐ” ํด๋ผ์šฐ๋“œ์—์„œ 70์–ต ๊ฐœ ํŒŒ๋ผ๋ฏธํ„ฐ(๋งค๊ฐœ๋ณ€์ˆ˜)๋ฅผ ๊ฐ–์ถ˜ ๋Œ€๊ทœ๋ชจ ์–ธ์–ด ๋ชจ๋ธ โ€˜์ฟ ์•ˆ-7B(Qwen-7B)โ€™์™€ โ€˜์ฟ ์•ˆ-7B-์ฑ—(Qwen-7B-Chat)โ€™์„ ์˜คํ”ˆ์†Œ์Šค๋กœ ๊ณต๊ฐœํ–ˆ๋‹ค๊ณ  8์ผ ๋ฐ์Šต๋‹ˆ๋‹ค.
 #2.
์—”๋น„๋””์•„ ๋•๋ถ„์— ์‹ ๋ฐ๋ ๋ผ๊ฐ€ ๋œ 'GPU ํด๋ผ์šฐ๋“œ' ์—…์ฒด I AIํƒ€์ž„์Šค ๋งํฌ

'GPU ํด๋ผ์šฐ๋“œ' ์Šคํƒ€ํŠธ์—… ์ฝ”์–ด์œ„๋ธŒ(coreweave)๊ฐ€ ์ง€๋‚œ๋‹ฌ ์—”๋น„๋””์•„์™€์˜ ํŒŒํŠธ๋„ˆ์‹ญ์œผ๋กœ ์ˆ˜์‹ญ์–ต๋‹ฌ๋Ÿฌ๋ฅผ ๋ฒŒ์–ด๋“ค์ผ ๊ฒƒ์œผ๋กœ ๋ณด์ธ๋‹ค๋Š” ์ธ์šฉ ๊ธฐ์‚ฌ์ž…๋‹ˆ๋‹ค. ์ฝ”์›Œ์œ„๋ธŒ์˜ GPU ๊ฐ€๊ฒฉ ์ •์ฑ…์€ ์—ฌ๊ธฐ์„œ ํ™•์ธ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.
 #3.
๋ฉ”ํƒ€, ๋ˆ ์•ˆ๋˜๋Š” AI ๋‹จ๋ฐฑ์งˆ ๋ฐ์ดํ„ฐ๋ฒ ์ด์Šค ํŒ€ ํ•ด์ฒด...์ƒ์šฉํ™”์— ์ง‘์ค‘ I ํŒŒ์ด๋‚ธ์…œ๋‰ด์Šค

๋ฉ”ํƒ€ํ”Œ๋žซํผ์Šค๊ฐ€ ๋ˆ์ด ์•ˆ๋˜๋Š” ์ˆœ์ˆ˜๊ณผํ•™ ์—ฐ๊ตฌํŒ€์„ ํ•ด์ฒดํ–ˆ๋‹ค๋Š” ์†Œ์‹์ž…๋‹ˆ๋‹ค. ๋งˆํฌ ์ €์ปค๋ฒ„๊ทธ ๋ฉ”ํƒ€ CEO๋Š” ์˜ฌํ•ด๋ฅผ 'ํšจ์œจ์„ฑ์˜ ํ•ด'๋ผ๊ณ  ๊ทœ์ •ํ•˜๊ณ , ๋Œ€๋Œ€์ ์ธ ๊ตฌ์กฐ ์กฐ์ •์— ๋“ค์–ด๊ฐ€๋ฉด์„œ ๋ˆ ์•ˆ๋˜๋Š” ์‚ฌ์—…์€ ๋Œ€ํญ ์ค„์ด๊ฑฐ๋‚˜ ํ•ด์ฒดํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. 
#์ดˆ๊ฑฐ๋Œ€ AI, ์…€๋ ‰ํŠธ์Šคํƒ€๊ฐ€ ํ•จ๊ป˜ํ•ฉ๋‹ˆ๋‹ค.


์…€๋ ‰ํŠธ์Šคํƒ€์™€ ํŒŒ์šด๋ฐ์ด์…˜ ๋ชจ๋ธ์„ ์กฐ์ •ํ•˜์„ธ์š”.
๋ณด์œ ํ•œ ๋ฐ์ดํ„ฐ๋ฅผ ๊ณ ํ’ˆ์งˆ AI ํ•™์Šต ๋ฐ์ดํ„ฐ๋กœ, 
๋ชฉ์  ๊ธฐ๋Šฅ์— ์ตœ์ ํ™”๋œ ์ƒ์„ฑ ๋ชจ๋ธ์„ ๊ตฌํ˜„ํ•ฉ๋‹ˆ๋‹ค.
๋ฐ์ดํ„ฐ ๊ธฐํš ์ˆ˜์ง‘ ๊ฐ€๊ณต ์„ ๋ณ„ ๋ถ„์„๊นŒ์ง€.
1์–ต 5์ฒœ๋งŒ ๋ฐ์ดํ„ฐ๋ฅผ ๊ตฌ์ถ•ํ•œ ์…€๋ ‰ํŠธ์Šคํƒ€๊ฐ€ ํ•จ๊ป˜ํ•ฉ๋‹ˆ๋‹ค.
The Data for Smarter AI

์„ธ์ƒ ๋ชจ๋“  ๋ฐ์ดํ„ฐ๋ฅผ ์ฐพ์•„, ์…€๋ ‰ํŠธ์Šคํƒ€๋Š”

AI ๋ผ์ดํ”„์‚ฌ์ดํด์„ ํ•จ๊ป˜ํ•˜๋Š” ์˜ฌ์ธ์› ๋ฐ์ดํ„ฐ ํ”Œ๋žซํผ์ž…๋‹ˆ๋‹ค.



๐Ÿ“‹ ์‚ฌ์—… ๋ฐ ์ œํœด ๋ฌธ์˜ contact@selectstar.ai
๐Ÿ“จ ์ฝ˜ํ…์ธ  ๋ฐ ํ–‰์‚ฌ ๋ฌธ์˜ marketing@selectstar.ai