λΆμ€νΈμΊ ν AI-Tech 5κΈ° NLP νΈλ Level3 Product serving νλ‘μ νΈμ λλ€. Fine. λ μμ€ν ν루λ₯Ό κΈ°λ‘νκ³ μΆμ§λ§ μκ°μ΄ μ¬μ λ‘μ§ μμ μ¬λλ€μ λμ νμ¬ μ¬μ©μμ ν루λ₯Ό μΌκΈ°λ‘ μμ±ν΄μ£Όλ Appμ λλ€. λΉμΌ λ¨Ήμ μμ, λ€μ λ Έλ, κΈ°μ΅νκ³ μΆμ μ₯λ©΄μ μ±λ΄μκ² λ§νκ±°λ, λλ μ¬μ§μ 첨λΆνμ¬ κΈ°λ‘νλ©΄, μ±λ΄μ΄ μλ§λ λλ΅μ ν΄μ€λλ€. μ΄ν ν루μ λ§μ§λ§μ κ·Έ μ 보λ₯Ό μμ½νμ¬ μΌκΈ°λ₯Ό μμ±ν©λλ€.
π‘ νλ‘μ νΈμ κ΄ν μμΈν λ΄μ©μ λ©μ 리ν¬νΈ, λ°νμμ λ° λ°νμλ£λ₯Ό μ°Έκ³ ν΄μ£ΌμΈμ.
λ³μ±ν | μλ³΄μ± | μ΄μλ―Ό | μ΄μΉμ° | μ΄μμ |
- 곡κ°νλ 리μ‘μ κ³Ό λ§₯λ½μ λ§λ μ§λ¬Έ
gpt-3.5-turbo
λͺ¨λΈμ μ΄μ©ν 613κ°μ λν λ°μ΄ν° μμ±-
train(νμ΅) λ°μ΄ν° κ°μ: 1,696 (83%)
-
test(νκ°) λ°μ΄ν° κ°μ: 340 (17%)
-
λν λ°μ΄ν° μμ
μμ€ν : μλ νμΈμ! μ€λ ν루λ μ΄λ μ ¨λμ? λ¬΄μ¨ μ¬λ―Έμλ μΌμ΄ μμλμ? μ¬μ©μ: μ€λμ μλ‘μ΄ λ μ€ν λμμ μμ¬λ₯Ό νμ΄μ! μμ€ν : μλ‘μ΄ λ μ€ν λμμ μμ¬λ₯Ό νλ€λ©΄ νμ κΈ°λλλ μκ°μ΄κ² λ€μ! μ΄λ€ μμμ μ£Όλ¬Έν΄μ λ¨Ήμλμ? μ¬μ©μ: μ€λμ μΌλ³Έ μμμ λ¨Ήμ μ μλ λ μ€ν λμ κ°μ΄μ. μμ μ΄λ°₯κ³Ό λΌλ©μ μ£Όλ¬Ένλλ° μ λ§ λ§μμμ΄μ! μμ€ν : μΌλ³Έ μμμ κ·Έ νΉλ³ν λ§κ³Ό λ€μν μ’ λ₯λ‘ μ λͺ νμ£ ! μμ μ΄λ°₯κ³Ό λΌλ©μ΄ κ·Έ λ μ€ν λμμ μ΄λ»κ² μλΉμ€λμλμ? κ·Έ μμμ λ¨ΉμΌλ©° μ΄λ€ μ΄μΌκΈ°λ₯Ό λλ΄λμ? μ¬μ©μ: μμ μ΄λ°₯μ μ μ νκ³ λ§μλ μ¬λ£λ‘ μ μ±μ€λ½κ² λ§λ€μ΄μ Έμ λ§μμμ΄μ. λΌλ©μ κΉμ λ§μ΄ μμ΄μ λμ± μ’μμ΄μ. μΉκ΅¬μ ν¨κ» μμμ λν΄ μ΄μΌκΈ°νλ©° μλ‘μ μΆμ² μμμ 곡μ νμ΄μ. μμ€ν : μ μ ν μ¬λ£λ‘ λ§λ€μ΄μ§ μμ μ΄λ°₯κ³Ό κΉμ λ§μ΄ μλ λΌλ©, μ λ§ λ§€λ ₯μ μΈ λ©λ΄λ€μ΄μκ² λ€μ! μΉκ΅¬μ ν¨κ» μμμ λν΄ μ΄μΌκΈ°νκ³ μΆμ²μ 곡μ νλ 건 μΈμ λ μ¦κ±°μ΄ μκ°μ΄κ² μ΄μ. λ μμΈν μ΄λ€ μμμ λν΄ μ΄μΌκΈ°λ₯Ό λλ΄λμ?
-
-
KULLM
μ μ΄μ©ν Instruction Tuningκ³Ό Parameter-Efficient Fine-Tuning (PEFT) -
input text (μ λ ₯): μ΅λ 3ν΄μ λν history
-
label (μλ΅): λν history λ€μμ μ¬ system μλ΅
-
Prompt
μλλ μμ μ μ€λͺ νλ λͺ λ Ήμ΄μ μΆκ° 컨ν μ€νΈλ₯Ό μ 곡νλ μ λ ₯μ΄ μ§μ μ΄λ£¨λ μμ μ λλ€. μμ²μ μ μ ν μλ£νλ μλ΅μ μμ±νμΈμ. ### λͺ λ Ήμ΄: μ£Όμ΄μ§ λ¬Έμ₯λ€μ μ΄μ λν λ΄μ©λ€μ λλ€. μ΄μ μλ§μ μμ€ν μλ΅μ λ§λ€μ΄μ£ΌμΈμ. ### μ λ ₯: system: μλ νμΈμ! μ€λ ν루λ μ΄λ μ ¨λμ? λ¬΄μ¨ μ¬λ―Έμλ μΌμ΄ μμλμ? user: μ€λμ μλ‘μ΄ μΉ΄νμμ 컀νΌλ₯Ό λ§μ ¨μ΄μ! ### μλ΅: system: μ’μμ! μλ‘μ΄ μΉ΄νμμ 컀νΌλ₯Ό λ§μλ©΄μ μ΄λ€ κΈ°λΆμ΄ λ€μλμ? μ΄λ€ μ’ λ₯μ 컀νΌλ₯Ό μλν΄λ΄€μ΄μ?
- label μ λν΄μλ§ loss κ³μ°
- 58μ΅κ° μ€ μ½ 2μ΅κ° parametersλ₯Ό fine tuning β μ¬μ νμ΅λ μ§μ νμ©
- Referenece-Based
- ROUGE-1, ROUGE-SU, Cosine Similarity
- Reference-Free
- Perplexity, G-Eval
-
Goal
- μ¬μ©μμ μ±λ΄μ λν λ°μ΄ν°λ₯Ό μ΄μ©ν μ¬μ©μμ ν루 μμ½
-
Data
gpt-3.5-turbo
λͺ¨λΈμ μ΄μ©ν λν λ°μ΄ν° μμ±- μμ±λ λν λ°μ΄ν°λ₯Ό
ChatGPT
λ₯Ό μ΄μ©ν΄ μμ½ν μμ½ λ°μ΄ν° μμ± - train(νμ΅) λ°μ΄ν° κ°μ: 279 (81.8%)
- validation(κ²μ¦) λ°μ΄ν° κ°μ: 24 (7%)
- test(μν) λ°μ΄ν° κ°μ: 38 (11.1%)
-
Model
gogamza/kobart-summarization
-
Fine-Tuning
- Use special token : [USER], [SYSTEM]
- Input data formatting
-
Metric
- Rouge score (ROUGE-1, ROUGE-SU)
-
Goal
- μμ½λ λ΄μ©μ λΆλλ¬μ΄ μ΄ν¬μ μΌκΈ°λ‘ λ³κ²½
-
Model
NHNDQ/bart-speech-style-converter
-
μ±λ΄ λ°μ΄ν° μμ± λ°©λ²μ΄ λ¨μν΄ λ°μ΄ν° λ€μμ± Ξ§
- μμ± flowλ₯Ό μ¬κ΅¬μ±ν΄μ μλ΅ μ νμ λ€μν
-
KULLM λͺ¨λΈ μ¬μ΄μ¦λ‘ μΈν΄ GPU μλ² μ¬μ©
- μ μ§ λΉμ© λΉμ β κ²½λν νμ
-
Summarization μ, λμΌν λ΄μ©μ μ€λ³΅μΌλ‘ μμ±νλ κ²½μ°κ° μμ
- κ°μ λ΄μ©μ λ λ² μ΄μ λ°λ³΅νλ κ²μ ROUGE scoreμ μ κ·Ήμ μΌλ‘ λ°μλμ§ μμ
- νκ° μ§ν λ° λͺ¨λΈ μ±λ₯ κ°μ νμ
- λν λ΄μ© κ°μ± λΆμμ λ°νμΌλ‘ κ·Έ λ μ μ΄μΈλ¦¬λ λ Έλ, λ―Έλμ΄ λ± μ»¨ν μΈ μΆμ² κΈ°λ₯
- QA Task μ μ©μ ν΅ν μ¬μ©μμ λ¬Έμ₯ν μ§λ¬Έμ μλ§λ μΌκΈ° λ΄μ©μ κ²μνλ κΈ°λ₯
- μ±λ΄ λ° μΌκΈ° λ§ν¬ 컀μ€ν°λ§μ΄μ§ κΈ°λ₯
- μμ± μΈμ, κ²°μ λ΄μ, μ§λ λ± λ€μν μΈλΆ API μ°κ²°
- κΈ°ν λ€μν κΈ°λ₯ μΆκ° λ° κ΅¬λ μμ€ν λ± μμ΅ λͺ¨λΈ κΈ°νμ ν΅ν΄ μμ μ± λλͺ¨