[Kaggle Gen AI] Day 1 ๊ณผ์ ์๊ฐ - LLM & Prompt Engineering ๐
์ฒซ ๋ฒ์งธ ๋ ์ LLM์ ๊ธฐ๋ณธ ๊ฐ๋ ๋ถํฐ ์์ํด์, ํ๋กฌํํธ ์์ง๋์ด๋ง์ ๊ธฐ์ด๋ฅผ ๋ฐฐ์ฐ๊ณ ์ค์ตํด๋ณด๋ ํ๋ฆ์ผ๋ก ๊ตฌ์ฑ๋์ด ์๋ค.
์งํ ์์๋ ์๋ ์ ๋ฆฌํ ๋ชฉ๋ก๋๋ก ๋ฐ๋ผ๊ฐ๋ฉด ๋๋๋ฐ, ๊ฐ ํญ๋ชฉ์๋ ๊ด๋ จ๋ ํ์บ์คํธ๋ ๋ฐฑ์ ๋งํฌ๋ ํจ๊ป ์ ์ด๋จ์ผ๋ ๋ฐ๋ก ํ์ธ ๊ฐ๋ฅํ๋ค. ๊ฐ์ธ์ ์ผ๋ก๋ ํ์บ์คํธ๊ฐ ๋ฐฑ์ ๋ด์ฉ์ ์์ฃผ ์ ์์ฝํด์ฃผ๊ณ ์๊ณ , ์ค๋ช ํ๋ฆ๋ ๋งค๋๋ฌ์์ ํธ๋ค๋ฅ ๊ณต๋ถํด์ผ ํ๋ค๋ฉด ํ์บ์คํธ๋ฅผ ๊ต์ฅํ ์ถ์ฒ!
๐ Todayโs Assignments
- Complete the Intro Unit โ โFoundational Large Language Models & Text Generationโ:
์ธํธ๋ก ์ ๋ โ โ๊ธฐ์ด ๋ํ ์ธ์ด ๋ชจ๋ธ(LLM) & Text Generationโ:- Listen to theย summary podcast episodeย for this unit.
์ธํธ๋ก ์ ๋ ์์ฝ ํ์บ์คํธ ๋ฃ๊ธฐ - To complement the podcast, read the โFoundational Large Language Models & Text Generationโ whitepaper.
ํ์บ์คํธ๋ฅผ ๋ณด์ํ๊ธฐ ์ํด, โ๊ธฐ์ด ๋ํ ์ธ์ด ๋ชจ๋ธ & Text Generationโ ๋ฐฑ์ ์ฝ๊ธฐ
- Listen to theย summary podcast episodeย for this unit.
- Complete Unit 1 โ โPrompt Engineeringโ:
์ ๋ 1 โ โํ๋กฌํํธ ์์ง๋์ด๋งโ:- Listen to theย summary podcast episodeย for this unit.
์ ๋ 1์ ์์ฝ ํ์บ์คํธ ๋ฃ๊ธฐ - To complement the podcast, read the โPrompt Engineeringโ whitepaper.
ํ์บ์คํธ๋ฅผ ๋ณด์ํ๊ธฐ ์ํด, โprompt engineeringโ ๋ฐฑ์ ์ฝ๊ธฐ - Complete these codelabs on Kaggle:
kaggle์ ์ฝ๋๋ฉ ์ค์ต ์งํํ๊ธฐ- Prompting fundamentals
ํ๋กฌํํธ์ ๊ธฐ๋ณธ ์๋ฆฌ - Evaluation and structured data
ํ๊ฐ์ ๊ตฌ์กฐํ๋ ๋ฐ์ดํฐ
- Prompting fundamentals
- Listen to theย summary podcast episodeย for this unit.
๐ก What Youโll Learn
Today youโll explore the evolution of LLMs, from transformers to techniques like fine-tuning and inference acceleration. Youโll also get trained in the art of prompt engineering for optimal LLM interaction and evaluating LLMs. The first codelab will walk you through getting started with the Gemini 2.0 API and cover several prompt techniques including how different parameters impact the prompts. In the second codelab, you will also learn how to evaluate the response of LLMs using autoraters and structured output.
๐ง Day 1์์๋ LLM์ ๋ฐ์ ํ๋ฆ์ ์ดํด๋ณธ๋ค! ํธ๋์คํฌ๋จธ ๊ตฌ์กฐ๋ถํฐ ์์ํด์, ํ์ธํ๋(fine-tuning), ์ถ๋ก ์ต์ ํ(inference acceleration) ๊ฐ์ ๊ธฐ๋ฒ๋ค์ด ์ด๋ป๊ฒ ๋ฐ์ ํด์๋์ง๋ฅผ ๊ฐ๋จํ ์ ๋ฆฌํด๋ณธ๋ค.
๐ ๏ธ ์ด์ด์ ํ๋กฌํํธ ์์ง๋์ด๋ง(Prompt Engineering)์ ๊ธฐ๋ณธ ๊ฐ๋ ๋ ๋ฐฐ์ฐ๊ณ , LLM๊ณผ ํจ๊ณผ์ ์ผ๋ก ์ํธ์์ฉํ๊ธฐ ์ํด ์ด๋ค ๋ฐฉ์์ผ๋ก ์ง๋ฌธ(ํ๋กฌํํธ)์ ์์ฑํด์ผ ํ๋์ง, ๊ทธ๋ฆฌ๊ณ ๊ทธ ๊ตฌ์กฐ์ ์คํ์ผ์ ๋ค๋ฃจ๋ ๋ฒ์ ์ตํ๋ค.
๐งช ์ฒซ ๋ฒ์งธ ์ฝ๋๋ฉ์์๋ Gemini 2.0 API๋ฅผ ์ฌ์ฉํด ์ค์ต์ ์งํํ๋ค.
ํ๋กฌํํธ์ ์ด๋ค ํ๋ผ๋ฏธํฐ๋ฅผ ์ฃผ๋์ง์ ๋ฐ๋ผ ์ถ๋ ฅ ๊ฒฐ๊ณผ๊ฐ ์ด๋ป๊ฒ ๋ฌ๋ผ์ง๋์ง๋ฅผ ์ง์ ์คํํด๋ณผ ์ ์๋ค.
๐งพ ๋ ๋ฒ์งธ ์ฝ๋๋ฉ์์๋ LLM ์๋ต ํ๊ฐ์ ๊ตฌ์กฐํ๋ ์ถ๋ ฅ ๋ง๋ค๊ธฐ์ ๋ํด ๋ค๋ฃฌ๋ค.
์๋ ํ๊ฐ(auto-rating) ๋ฐฉ๋ฒ์ ๋ฐฐ์ฐ๊ณ , ๋ชจ๋ธ์ ์๋ต์ ์ข ๋ ๊ตฌ์กฐํ๋ ํํ๋ก ๋ฐ๋ ์ฐ์ต๋ ํด๋ณธ๋ค.