일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- kotlin list
- 유튜브
- list map
- ktor api call
- AWS EC2
- ChatGPT
- video caching
- Python
- android ktor
- ListAdapter
- android exoplayer
- build with ai
- FastAPI
- android custom view
- DiffUtil.ItemCallback
- 시행착오
- llm
- 독서
- ktor client
- getChangePayload
- 스피너
- exoplayer cache
- android
- 안드로이드
- map
- Zsh
- doc2vec
- ExoPlayer
- kotlin collection
- ListAdapter DiffUtil
- Today
- Total
목록build with ai (2)
버튼 수집상
일시: 2024년 04월 27일 (토)장소: 강남 SC 컨벤션 센터주최: GDG Cloud KR 점심 전에 진행되는 세션 2개만 들었다.그동안 갔던 GDG 행사 중에 강연장이 가장 컸던 것 같다. - 컨텍스트 윈도우가 커지면 장점들in-context learning이 가능해짐.모델을 기억시키기 위한 기술을 도입할 필요가 없어진다.파인튜닝할 필요가 없어진다 -> 프롬프팅 엔지니어링 품으로 대체됨 - 파인튜닝을 없앴을 때, 서비스적인 장점들LLM과 어플리케이션을 더 잘 분리할 수 있음강력하고 거대한 LLM이 하나 나오면, 더 이상 손 댈 필요가 사라짐. - 단, SPOF Single Point of Failure로 작용할 수도 있다.거대 언어모델의 헛소리 한 번으로 전체 스택이 망가질수도. - 컨텍스트 윈도..
일시: 2024년 04월 13일 (토)장소: 인천 스타트업 파크주최: GDG 인천 HelloWorld 2024에서 한상준 연사님의 발표에서 알게 된 행사.LLM과 Gemini에 관련한 세션들이었다.사실 이 세션은 내용을 거의 알아듣지 못했다..최근에 어떤 논의가 오가는지, 어떤 개념이 거론되는지 궁금해서 검색/정리 해본다. - Transformer는 병렬처리를 위해 구글에서 만든 아키텍쳐. - Transformer의 장점 : (RNN과 달리) Attention을 병렬처리 가능함. - Attention Mechanism이란? 출처입력 문장의 모든 단어를 동일한 가중치로 취급하지 않고, 출력 문장에서 특정 위치에 대응하는 입력 단어들에 더 많은 가중치를 부여하는 매커니즘 - Transformer의 단점 : ..