노스아울렛은 정말 크고 싸고 보는 재미가 있었다. 관광객보다는 가족단위 현지인들이 더 많았다. 약간 파주 아울렛같은 느낌? 우리가 간날이 블랙 프라이데이라 기본 50프로 세일에 추가 15프로 할인까지 해줬다. 가격이 진짜 안사면 호구 수준으로 쌌다. 후기보면 가방을 많이 사던데 의류가 정말 싸고 득템거리가 많았다. 내꺼 살려는건 죄다 사이즈가 없고 그래서 부모님꺼만 두개 샀는데 진짜 싸게 잘산거같다.
저녁에는 베네치안호텔가서 명찰표를 수령하고, swag 라고 aws reinvent 굿즈를 수령했다. (굿즈는 후드집업, 벳지3개,물병) 그리고 명찰표를 매고 하드락카페에서하는 한국고객의밤이라는 이벤트에 참여했다. 밥은 고냥 고랬고 맥주를 계속 가져다주셔서 좋았다ㅎㅎ 끝나고 바로옆에 m&m 스토어도 들렀다. 여기 굿즈들 쓸데없이 정말 비쌌다... 초코는 슈퍼마켓가서 사는게 더 싼듯하다.
2 day 월요일
리인벤트 첫날! 걱정했던것과는 다르게 안내하시는 분들이 파란옷에 깃발까지 꼽고 가는길마다 진짜 촘촘하게 서있으셨다. 셔틀 어디서 타냐고 물어보니 다들 친절하게 안내해주셨다.
이날은 첫날이라 같이 이동하기위해 mgm호텔에서만 강의를 들었다. deepracer가 제일 처음 들은거였는데 실습형이였다. 살짝 당황스러웠던건 강의가 2시간짜린데 트레이닝하는데만 한시간이 소요되었고 그걸 아무것도 안하고 기다려야했다는점?이였다ㅋㅋ. 그래서 주변사람들이 트레이닝 끝났냐 계속 물어보고 스몰톡하다 도중에 많이들 탈주했다. 이건 그냥 내 의견인데 본인이 영어를 잘 못한다면 실습형? 강의위주로 듣는걸 정말로 추천한다. 하란대로 따라하면 되니까 쉽고, 무료 크레딧도 준다.(해당기능에서만 사용가능한 크레딧이긴 하지만) 그외에 nvidia에서 하는강의, ML관련 강의2개를 들었는데 저녁이 되었다. 풀강수업인 날처럼 힘들었다 ㅎㅎ;;
끝나고 베네치안 호텔로가서 엑스포안에서하는 기업박람회같은걸 구경했다. 누구나 아는 회사부터 시작해서, 완전 처음들어보는 스타트업 기업들까지 부스가 어마어마하게 많았고, 본인들 회사 굿즈들을 나눠줬다. 이날은 너무 힘들어서 간단히 돌면서 스티커랑 양말정도만 받아왔다.(담날 또감)
3 day 화요일
이날은 아침에 키노트를 들으러 베네치안에 갔다. 8시반부터 시작인데 그전부터 밴드가 열창하고 있었다. 진짜 그렇게 큰 강의는 처음이였다. 스케일이 정말 압도적이였다. aws 대표가 나와서 분야별로 새로 이러이러한게 등장할거다 성능이 정말 좋다! 설명하면 사람들이 와!! 쨕쨕쨕 박수쳐주고, 중간중간 기업대표들이 나와서 본인들이 aws를 써서 코스트를 얼마나 절약했고~ 얼마나 빨라졌고~ 자기네 회사는 머하는 회사고~ 설명하고 내려갔다. 키노트를 다 듣고나서는 각자 듣고싶은 강의 들으러 찢어졌다. 나는 전날 감질나게 본 기업박람회?를 재방문했다. 같은 베네치안호텔인데다 바로 옆방?이라 이동이 용이했다. 거의 2시간넘게 돌아다니면서 양말, 티셔츠, 인형등등 굿즈들을 쓸어담아왔다. 거기서 할수있는 모든 체험들은 다하고온것같다. 인형뽑기 하는 부스도 많았고, amd에서는 4인팀전 vr 게임하고 이어폰도 받았다.인형탈이랑 사진도 찍었다 ㅎㅎ 졸작때 사용해서 먼가 내적 친밀감이 느껴졌던 엘라스틱부스는 전날 왔었던걸 알아봐서 굉장히 머쓱했다. 데이터독이라는 회사는 처음 들어봤는데 설명을 엄청 잘해주셔서 인상깊었었다. ( 끝나고 한국오면 내가 방문했던 부스들에서 리인벤트에서 우리 봤져? 더알아볼려면 이걸 눌러바 하고 메일 폭탄이 온다 ㅎㅎ)가방한가득 굿즈들을 쓸어담고 배고파서 공짜밥 먹으러 내려갔다. 공짜밥을 생각보다 엄청 잘줬다. 탄단지구성이 알찬 느낌..? 커피두 주고 음료수도 주고, 도넛같이 밖에나가서 먹을수있게 밀키트도 주고 할랄음식존도 따로 있었다.
밥먹고 앙코르 호텔로 이동해서 샘숭에서하는 강의를 들으러 갔다. 내용은 현재 내가 하는주제랑은 거리가 멀었지만 그래도 국뽕이 차올랐다. 그거랑 바로옆에서 하는 강의 하나 더듣고(듣다 살짝 졸았다..ㅋㅋ) 저녁에는 다운타운으로 관광하러갔다. 아 그리고 리인벤트에서는 옷정말 편하게 입고 다니는걸 강추한다... 정말 사람들 체크셔츠에 청바지, 츄리닝 입고 너무 후리하게 다녀서 그냥 강의들으러 다닐때는 여기서 나눠주는 후드집업 입고다니는게 편하고 좋은거같다. (자켓에 깜장청바지 입었더니 직원분들이 옷 이뿌다고 하루종일 칭찬감옥에 가두고, 모르는사람이 갑자기 오더니 나이스 수트~ 따봉 날려주고감 ㅎㅎㅎㅎㅎ) 저녁에는 다운타운에 있는 페더레이션 스트릿 구경했다. 저녁밥은 근처에 타이음식점갔는데 정말 맛있었다.
4 day 수요일
오전에 윈호텔에서 8시반에 하는 trn1 관련 강의랑 다른강의1개도 들었는데 점심쯤에 몸이 갑자기 너무 안좋아졌다. 약간 오한이 들고 진짜 힘들어서 죽을거같길래 숙소로 돌아가서 2시간정도 낮잠 자고 쉬다 다시 나왔다. 화이트캐슬이라고 숙소 바로옆에 햄버거집에서 점심도 사갔는데 군데리아4개를 줬다. (역시 한국에 안들어온건 다 이유가 있다 맛이 없었다...!)
저녁에 교수님이 밥도 사주셨다. 힐튼호텔은 최근에 지어서 그런지 혼자 라스베가스 특유의 호텔느낌이 안나고 타임스퀘어같은 느낌이였다. 다른 호텔들은다 금색!! 빨간색!!카페트!!화려!! 이런느낌이라면 힐튼혼자 화이트!밝음!!깔끔!!! 이런느낌?
5 day 목요일
이날 아침에는 베네치안에가서 둘이서 사진찍고 각자 찢어졌다. 이날은 제일 먼 호텔인 만달레이가서 강의를 들었다. 가서 코드 카탈리스트라는걸 알게되었는데 협엽용 툴로 엄청 좋아보였다. 플라스크랑도 연계되고 vs code, 깃허브랑도 연계되는데 먼가 대학졸작할때?쓰면 좋을것같아보였다. 만달레이서만 강의 몇개 듣고 숙소 오는길에 롤러코스터 타러 뉴욕뉴욕 호텔에 들렀다. 뉴욕뉴욕 호텔은 지은지 좀 오래되서 아침에 갔는데도 분위기가 좀 무서웠다. 롤코자체는 징말 재밌었다. 적당히 무섭고 적당히 길어서 돈값은 한것같다($19). 도심롤코라 풍경이 정말 이쁘고 좋았다. 그리고 오는길에 고든램지버거 사와서 숙소에서 먹었다. 와 진짜 그냥 매장에 들어가서 먹는걸 추천한다. 웨이팅도 거의없었는데 포장 30분 기다림 ^^ㅋㅋㅋㅋㅋ 핼스키친 버거 먹었는데 대기시간도 길었고,너무 비싸서 좀 짜증났지만 웃기게도 정말루 맛있었다..ㅋㅋ
저녁에는 리플레이 파티에 참석했다. 야외 파티이고, 규모가 거의 축구장 수준으로 컸다. 역시 스케일... 총기류때문인지 가방은 소지가 불가했다. 셔틀타는곳앞에 끝이없도록 길게길게 줄을 서있었다. 총 3개 천막으로 되어있는데 하나는 디제잉, 하나는 가수, 하나는 게임용이였다. 아 진짜 90프로가 공대 아저씨들이었는데 다양한 인종과 나잇대의 아저씨들이 맥주를 들고 신나고 소심하게 둠칫둠칫하는 모습이 먼가 다들 귀여우시고 웃겼다 ㅋㅋㅋㅋ
6day 금요일
이날은 리플레이파티 갔다와서 자정되자마자 그랜드 캐년 투어 버스타러 나갔다. 잠은 투어버스에서 잤다 ㅎㅎ 혼자가서 가이드분이 각도별로 사진을 엄청 찍어주셨는데 진짜 인생사진 정말 많이 건졌다. 투어인원중 리인벤트보러온사람들도 있었다. 그랜드캐년에서 동트는걸 봤는데 진짜 너무 졸리고 미치게 추웠지만 정말 멋졌다. 훌수슈 밴드에서는 사진찍는데 모래바람 부는게 심상치않아서 진짜 좀 많이 무서웠다 호달달...
저녁 7시에 도착해서 짐 싸고, 마지막으로 인앤아웃 버거를 사와서 먹었다. (미국와서 햄버거만 먹고가는기분...)
7 day 토요일,일요일
새벽6시반 비행기라 새벽2시에 우버타고 공항으로 갔다. (이틀연속 잠을 제대로 못잤다ㅠㅁㅠ) 가서 면세점 들러서 남은 달러들도 털고왔다. ( 미국 면세점 정말 비추다 비추 한국정가랑 크게 차이없다. 오히려 대한항공 기내 면세점이 더 싸다.) 올때도 시차적응을 위해 한숨도 안잤다.
일요일저녁에 도착해서 담날부터 일상으로 돌아갔다. 리인벤트에서 느꼈던건 진짜 영어 진짜 목숨걸고 열심히 해야겠다 였다... 내가 영어를 좀더 잘했다면 강의듣기 말고도 친목을 다질수 있었던 세션이나, 팀플처럼 팀지어서 하는 세션들도 참여할수 있었을텐데, 나를 엄청 어필할수도 있고 강의듣고 질문도 할수 있었을텐데, 미국 직장인들 생활은 어떤지 물어보고도 싶었는데 후회가 정말 많았다. 그리고 매일매일 강의 들은갯수는 엄청나게 많았는데 영어를 잘 못해서 반도 이해를 못한게 많은것 같다. 너무나 아쉬웠다... 질문같은것도 하고싶었는데 ㅜㅜ 그래도 피피티를 넘길때마다 찍어온덕에 다시보고 겨우 조금 이해함.
두번째는 내가 진짜 시야가 좁았다는게 체감되면서 좀 부끄러워졌다. 새로운 기능들에 관심 가지고 시야를 넓혀서 나한테 도움이 될지 안될지 항상 관심있게 찾아보고 능동적으로 사용해야하는데 그러지 못했던게 체감되어서 반성했다. 진짜 세상은 내가 생각했던것보다 더 넓었고 너무 주눅들지말고 좀더 열심히하고, 목표를 크게가지고, 영어공부를 진짜 열심히 하자! 매해마다 어느정도 영어실력이 이전보다는 늘어서 외국인이랑 대화에 전혀 불편함 느끼지 않을수준까지 갈수 있게 공부했으면 하고,항상 넓은 시야를 가지고 능동적으로 살자 화이팅팅!
기타 느낀점?들 ** 정말 아무도 마스크를 쓰지않아서 마스크 쓰는사람이 외려 튀고 이상해보였다....ㅋㅋ 마스크벗고 계속 기침하는사람도 많았다...!! ** 우리나라사람들이 정말 빠르긴한거같다. 공항이랑 음식점에서 가장 극단적으로 느꼈다 ㅎㅎ ** 쏘리를 입에 달고다녀서 나도 집갈때쯤 습관적으로 쏴리~ 하게됨 ** 칭찬이 습관인듯하다. 안내해주시는분들이 정말 작은것하나도 칭찬해주셨음. ** 옆사람한테 말거는게 일상이라 여긴 외향형만 살아남을수 있는건가 싶어졌다. ** 진짜 먹을게없고, 전체적으로 너무 달고 너무 짜고, 신선식품 찾기가 너무 힘들었다. 먹을게 정말 너무없어서 햄버거만 먹고왔다.(버거킹 맥날도 여러번먹음) ** 우리나라에서 중국사람 보이면 중국사람 이야기하는것처럼 코리안들 어쩌구 저쩌구 이야기하는것들 종종 들었다. 좋은 뉘앙스는 아녔다. ** 남녀노소 옷잘입고 잘 꾸민사람들은 대체로 한국 사람들이였다ㅎㅎ
** 롤코 탈때 혼자 타려고 기다리고 있었더니 직원이 죽이게 무섭다고 제스쳐로 자꾸 겁을 줬다 ㅋㅋㅋㅋ
** 스벅 베이커리 메뉴이름이 정말 정직하다. 치즈빵은 정말 안에 치즈밖에 안들어있었고, 치즈토마토 파니니는 치즈랑 토마토밖에없었고, 햄 파니니는 햄이 엄청 곂쳐져서 햄만 들어있었다ㅋㅋㅋㅋ 근데 빵이 전부 버터맛나고 엄청 바삭바삭해서 맛있었다.
** 스벅 톨사이즈로 거의 맨날 사먹었는데 여기서는 거의 안시키는 사이즈였나보다. 메뉴판에도 그란데부터 있고, 지나가는사람들은 저것좀 보라고 큐티한 사이즈다~하고, 주문받을때도 자꾸 되물어보고 그랬다.
**리인벤트에서 들은건데 미천한 영어실력으로 다 못알아들음 + 빤한 내용이지만 그래도... 정리차원으로 그냥 메모장대신올림
1. 어떤 환경을 선택해야 최적의 선택일지?를 결정하는게 중요, 여기에는 여러가지 조건들이 따르는데
분산처리인지, 싱글 gpu 사용해야하는지? 데이터셋이 어떤지, 큰모델인지, 파라미터수가 엄청나게 큰지 등등
(spoiler : ec2 ultra clusters)
2. 크게 3가지로 분류해서 봄 : 트레이닝과추론/추론/트레이닝
3. cpu만가지고 학습할때는 gravition3 추천
gravition3 : for machine learning
c6g < c7g
4. accelerated instances for training
(1) 하바나 가우디를 사용하자
(2) trn 인스턴스 사용하자 → 매우 좋은 성능그리고, 왕싸다
gpu보다 더 낫다
ec2중에서 매우 빠르다.
trn1 trn1n 인스턴스
슈퍼컴에도 들어가있음
p4dn보다 훨씬 나은 성능
5. distributed training을 시도해보자~
tensor parallellsm
pipeline parallellsm
6. sage maker를 사용하자
큰 데이터셋은 sagemaker cluster 사용하자
7. aws FSx를 사용하자 (고성능 파일 시스템)
8. 추론할거면 inf1를 사용하자 (성능굿굿이다~)
Havana Gaudi ( 작년에 나왔고, 멀티gpu 작업에 조금더 적합함 )
Trn1 ( Trainium 칩)
AWS Trainium 칩으로 구동되는 Amazon EC2 Trn1 인스턴스는 비교 가능한 GPU 기반 인스턴스 대비 최대 50% 저렴한 훈련 비용으로 고성능 딥 러닝 훈련을 실행할 수 있도록 특별히 구축됨. 주요 자연어 처리(NLP) 모델에서 최고의성능을 보인다함. EC2 ultraclusters에 배포되고 fsx 를 사용하면 정말 적은 지연시간과 처리량을 제공하는 공유 스토리지에 엑세스 가능하다고함. 또 Trn1 인스턴스는격리된 다중 테넌시, 프라이빗 네트워킹 및 빠른 로컬 스토리지 제공을 간소화하는 AWS 설계 하드웨어 및 소프트웨어 혁신 모음인AWS Nitro System 에 구축됨.
- 또 nemo megatron 이라는것도 새로 출시한다는데 NLP 모델같이 좀많이 큰 모델전용인듯하다.
- TAO Toolkit은 학습과 관련된 hyperparameter들을 수정하여 custom AI model을 생성할 수 있고 또한 CV 모델에서model pruning을 통해 모델의 전체 크기를 줄일 수도 있다.
TAO Toolkit 이란 ?
TensorFlow 및 PyTorch를 기반으로 구축된 NVIDIA TAO Toolkit은 AI/딥 러닝 프레임워크 복잡성을 추상화하여 모델 트레이닝 프로세스를 가속화하는NVIDIA TAO 프레임워크의 로 코드 버전입니다.TAO Toolkit을 사용하면 AI 전문 지식이나 대규모 트레이닝 데이터 세트 없이도 전이 학습을 활용하여 NVIDIA 사전 학습 모델을 자체 데이터로 미세 조정하고 추론을 최적화할 수 있습니다.
또한 자신의 데이터로 pretrained model을 fine-turning하고 edge device를 통해 TensorRT 기반 inference를 위해 export 할 수 있는 Python package
Transfer learning 전이학습이란?
cnn으로 학습을 시키기위해서는 엄청나게 많은 양의 데이터가 필요함. 그런데 이걸 처음부터 학습시키기에는 돈과 시간이 부족함. 그걸 해결하기위해 사용한게 전이학습. 이미 많은 데이터를 가지고 pre-trained 모델을 가지고와서 조금 튜닝해서 사용하는것. 적은 데이터를 가지고 추가트레이닝을 시키고 가중치를 미세하게 조정시키거나 마지막 출력게층을 손봐서 조금만 수정하고 이 변경된 레이어만 다시 재트레이닝시키는걸 말함.
TensorRT란?
학습된 딥러닝 모델을 최적화하여 NVIDIA GPU 상에서의 추론 속도를 수배 ~ 수십배 까지 향상시켜 딥러닝 서비스를 개선하는데 도움을 줄 수 있는 모델 최적화 엔진. 흔히들 우리가 접하는 Caffe, Pytorch, TensorFlow, PaddlePaddle 등의 딥러닝 프레임워크를 통해 짜여진 딥러닝 모델을 TensorRT를 통해 모델을 최적화하여 TESLA V100 같은 NVIDIA GPU 에 올린다.
FLOPS Be careful All capitals yes floating point of per second Abbreviation , Floating point operations per second . It can be understood as computing speed , Used to measure the performance of hardware . (=하드웨어성능측정)
FLOPs yes floating point of operations Abbreviation , Is the number of floating point operations , It means the amount of calculation , It can be used to measure the algorithm / Model complexity .(=모델 연산량측정, floating point operations )
FLOPS vs MAC(Multiply–ACcumulate)
FLOPs 는 덧셈과 곱셈을 하나의 연산으로 본다
1 MAC = 2 FLOPs(덧셈1,곱셈1)
그래서 MAC → FLOPs으로 변환시에 2를 곱해주고, 반대일떈 2를 나눠주면됨
FLOPs랑 걸리는시간도 비례?
비례하긴한데 모델별로 그래프모양은 다른듯
Calculate FLOPs
y = w[0]*x[0] + w[1]*x[1] + w[2]*x[2] … w[n-1]*x[n-1]
길이가 n인 두벡터의 내적 → 곱하기 n, 더하기 n-1 총 2n-1 FLOPS
FLOPs = 2x Input Size x Output Size = 2x Number of Kernel x Kernel Shape x Output Shape
딥러닝 모델에서 고려해야할사항
모델의 크기 (FLOPs)
메인 메모리 얼마나 잡아먹는지(사용메모리)
동작시간 (Latency)
전력소모
Parameter and FLOPs?
Parameter ??
In a CNN, each layer has two kinds of parameters : weights and biases.
The total number of parameters is just the sum of all weights and biases.
Let's define, = Number of weights of the Conv Layer. = Number of biases of the Conv Layer.
root@iZtrrrmevfuyqhvmqzcZ:~# pip3 install tensorflow==2.7.0
Collecting tensorflow==2.7.0
Could not find a version that satisfies the requirement tensorflow==2.7.0 (from versions: 1.13.1, 1.13.2, 1.14.0)
No matching distribution found for tensorflow==2.7.0
pip3 install --user --upgrade tensorflow 로 해봤지만, 다음과같은 에러발생
python setup.py egg_info failed with error code 1 in /tmp/pip-build
A30 GPU는 전부 매진이라 한달단위로만 제공한다고한다. 한달에 1500불정도 (200만원). 이것도 신청한다고 바로되는게 아니라 심사후에 사용가능한데, 그것도 개인말고 기업이나 학교같이 신분을 보증할수 있는 결제처가 있어야 한다고 했다.
알리바바 클라우드는 좀 좋은게 문의 남기면 꼭 전화가온다.
A10 GPU도 사용해볼까 해서 선택했는데 에러가 난다.
그래서 개인정보에서 추가 정보를 입력하고 ( 1. 카드사진, 2. 여권정보, 3. 카드내역서 등등...)
Submit Ticket 으로 문의해본결과 또 전화가 왔었는데 , 기업이나 단체가 아니라 개인으로 사용시에 심사가 엄청나게 엄격하다고 한다. 이전에 유럽쪽인가 미국인가 리전에서 개인 계정으로 무분별한 사용후 결제를 안하고 튄케이스가 많았어서 개인계정은 심사를 빡세게 한다고 한다... (특히 카드 사용내역서...)
두번 거절당하고 세번째에 승인이 났다.
알림뜬거 클릭클릭하다보면 자동으로 추가인증사이트로 연동된다.
1. 카드실물사진
2. 여권사진
3. 카드사용내역서
이렇게 업로드해야하는데 카드사용내역서를 '영어'로 + 몇개월치를 뽑아서 첨부해야한다.
첫번째는 한국어로 대충 앱 캡쳐해서 첨부, 두번째는 영어로 2달치 카드내역서 pdf로 첨부했는데 거절당했다.