일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- ktor api call
- map
- ListAdapter
- ExoPlayer
- android
- 안드로이드
- 스피너
- list map
- DiffUtil.ItemCallback
- 독서
- doc2vec
- ChatGPT
- 시행착오
- llm
- ktor client
- Python
- android custom view
- kotlin collection
- build with ai
- FastAPI
- kotlin list
- ListAdapter DiffUtil
- video caching
- 유튜브
- AWS EC2
- android exoplayer
- 카카오톡 웹뷰
- android ktor
- exoplayer cache
- getChangePayload
- Today
- Total
목록전체 글 (102)
버튼 수집상
빠르게 보는 결론iOS Version 17.6.1카카오톡 버전 11.0.2기기가 다크모드로 설정돼있을 때 현상 발생. 카톡 테마를 '블랙'으로 바꾸면 된다. 배경Plain Text를 리턴하는 간단한 API를 만들었다.그런데 카카오톡 인앱 웹뷰에서 API 링크를 열면 화면이 하얗게 나왔다. 프레임워크단에서 브라우저별로 접근을 제한하는 설정이 있나..? 했는데, 하얀 화면에 스크롤이 내려졌다.꾹 누르니 커서도 선택되었다.하얀 바탕에 하얀 글씨가 뜨고 있던 것이다. 현상파악카톡으로 링크를 공유받은 다른 사람은 글자가 잘 보인다고 했다.그 사람의 기기 설정은 라이트 모드였다. (아이폰)나도 라이트 모드로 설정을 바꿨더니 하얀 바탕에 검은 텍스트가 보였다.하지만 이것 때문에 핸드폰 설정을 바꾸기는 싫었다. 해결카..
1. 한글 한 글자당 1.05 ~1.06배의 토큰이 소요된다.거의 1:1로 생각하면 된다.예를 들어 GPT4o-mini에 입력 토큰값 상한선이 128K라면 한글을 대략 12.2만자 정도 입력할 수 있다.영문은 한 글자당 토큰이 0.2배 정도 소요되는 것과 확연히 비교된다. 2. GPT와 Claude API에는 티어Tier에 따른 사용 제한선이 있다.최신 LLM의 컨텍스트 윈도우 값만 보고 서비스를 기획하면 안 된다.티어는 사용자의 월 결제 금액과 사용량에 따라 정해진다.분당토큰제한(TPM: Tokens Per Minutes)도 있다. 3. Claude API에는 일일 토큰제한도 있다.티어2 기준, Claude API에서 하루에 쓸 수 있는 토큰은 250만개이다. (Claude 3 Haiku 는 250..
혼자 풀스택으로 작업한 사이트의 운영이 시작되었다.이슈 트래커도 사용하지 않는 회사라 직접 노션에 정리중이다. 커밋내역을 링크로 걸어뒀지만, 비공개 레포지토리라 인증 정보 없이는 링크가 연결되지 않는다.수정사항(diff)을 노션에 바로 그리기 위한 방법을 고안해봤다. 1. 우선 커밋을 올린다. 2. 해당 커밋의 해시(SHA)를 따서 git show 커맨드로 내역을 확인한다.git show --color [커밋SHA] 커밋 SHA, short hash 정보를 확인하고 싶으면 아래 커맨드를 입력.git log --oneline 그러면 짧은 해시들과 커밋 제목들이 한 줄로 뜬다. 3. 우선 터미널에 그려지는 git show 내역을 파일로 출력해보자.git show --color [커밋해시] > [파일명]...
To the brain, reading computer code is not the same as reading languageMIT neuroscientists have found reading computer code does not rely on the regions of the brain involved in language processing. Instead, it activates the “multiple demand network,” which is also recruited for complex cognitive tasks such as solving matnews.mit.edu 2020년 기사인데 X에서 발견했다. 컴퓨터 코드를 읽는 것이 언어를 처리하는 뇌 영역을 활성화시키지 않는다고 ..
개발자 경력 10년 안에 억대 연봉 커리어를 갖는 방법요약:- 사이드 프로젝트- 커뮤니티 활동- 알고리즘 기술스택마다 커뮤니티가 있음 ex) npm, github, stackoverflow글로벌 커뮤니티에서 contribute한 경험은 돋보인다.오픈소스 PR을 하거나, 컨퍼런스에 연사로 나가거나, 스터디를 하거나, 기술블로그를 쓰거나 등등. 신기술 나왔을 때, 수익창출이 어려우므로 회사에서 바로 도입할 수 없음.회사에서 못 써보는 기술을 직접 써보는 것. 백엔드 개발자 면접 질문과 준비법요약:그냥 다 알아야 한다. - RestAPI : 예를 들어 요청 헤더에 권한 정보 넣기- 세션과 쿠키- 지원한 회사의 ..
배경설명재직했던 회사는 물류쪽 대기업을 고객으로 하는 e커머스 전문 SI회사였는데,파견업무를 그대로 유지하면서 고객사에게 영업할 만한 새로운 솔루션 개발에 혈안이 되어있었다. 2022년 5월에 들었던 설명회. 4차 산업혁명 = 빅데이터 + 인공지능인공지능이 의미있으려면 빅데이터가 있어야 한다 인공지능의 역사개념은 1940년대부터 존재1970~1985 1차 Dark Age (multi layer perception)1995~2010 2차 Dark Age (Vanishing Gradient) 인간의 신경망과 기계 신경망인간은 오랜 학습을 거친 후 직관적으로 판단 가능특징만 추출하는 데 특화됨이 과정을 digital하게 구현하는 것이 관건 인간의 시냅스는 자극이 임계점을 넘어갈 때 인식 -> 디지털처럼 0/1..
인용문과 직접 찾아본 개념들 정리.도입부만일 당신이 언젠가 평균적인 미국인은 하루에 평균 1.02회 이를 닦는다는 기사를 읽게 된다면 스스로 이렇게 물어보라."도대체 그걸 어떻게 알아낼 수 있었지?" 임의추출법기초가 될 표본은 '임의추출' 된 것이라야 한다. 즉 표본은 모집단으로부터 순전히 우연에 의해 추출되어야 한다. 층별 임의추출법완벽한 표본을 얻기가 매우 힘들 뿐만 아니라 비용이 너무 많이 들기 때문에 (...) 경제적인 대안으로 '층별 임의추출법'이라 불리는 표본을 사용한다.요즘 ML 기초수업에서 배운 K-Fold 랑 관련이 있을까 찾아봤다.층화 임의 추출 (Stratified Random Sampling) 라고 하는 것 같다.층화 임의 추출이란, 모집단을 몇가지 특징을 기준으로 서브그룹으로 나누..
일시: 2024년 04월 27일 (토)장소: 강남 SC 컨벤션 센터주최: GDG Cloud KR 점심 전에 진행되는 세션 2개만 들었다.그동안 갔던 GDG 행사 중에 강연장이 가장 컸던 것 같다. - 컨텍스트 윈도우가 커지면 장점들in-context learning이 가능해짐.모델을 기억시키기 위한 기술을 도입할 필요가 없어진다.파인튜닝할 필요가 없어진다 -> 프롬프팅 엔지니어링 품으로 대체됨 - 파인튜닝을 없앴을 때, 서비스적인 장점들LLM과 어플리케이션을 더 잘 분리할 수 있음강력하고 거대한 LLM이 하나 나오면, 더 이상 손 댈 필요가 사라짐. - 단, SPOF Single Point of Failure로 작용할 수도 있다.거대 언어모델의 헛소리 한 번으로 전체 스택이 망가질수도. - 컨텍스트 윈도..
일시: 2024년 04월 13일 (토)장소: 인천 스타트업 파크주최: GDG 인천 HelloWorld 2024에서 한상준 연사님의 발표에서 알게 된 행사.LLM과 Gemini에 관련한 세션들이었다.사실 이 세션은 내용을 거의 알아듣지 못했다..최근에 어떤 논의가 오가는지, 어떤 개념이 거론되는지 궁금해서 검색/정리 해본다. - Transformer는 병렬처리를 위해 구글에서 만든 아키텍쳐. - Transformer의 장점 : (RNN과 달리) Attention을 병렬처리 가능함. - Attention Mechanism이란? 출처입력 문장의 모든 단어를 동일한 가중치로 취급하지 않고, 출력 문장에서 특정 위치에 대응하는 입력 단어들에 더 많은 가중치를 부여하는 매커니즘 - Transformer의 단점 : ..
유데미에서 줌으로 진행한 웨비나.한기용 멘토님. 라는 저서.- 한 큐에 끝내려고 하지 말고 점진적으로 나아간다.- 대기업에 너무 많은 기대를 하지 말아라.- Hire Character, Train Skill 인성이 된 사람을 뽑아서 기술을 가르친다. ↔ Brilliant Jerk 아무리 능력이 좋더라도 독불장군은 조직에 해가 된다.- 팀을 생각하는 마인드셋- 회고하는 자세 필요와 호기심에 기반한 학습을 이어가자.- 뜨는 기술을 바로 좇아가는 것이 아닌, 정말로 궁금해서 따라가는 학습.- 행동으로 바로 옮기는 학습 action-oriented- “회사 밖에서는 새로운 프레임워크를 많이 쓰는데 우리 회사는 안 써” → 새로운 기술을 반영해도 안정화 시키는 데 1-2년- 약간 뒤쳐진다는 느낌의 학습- 그리고 ..