반응형

소프트웨어 925

베어유 빡공단 Unity 최종 후기

마지막으로 작성하는 베어유 강의 관련 글이겠네요 ㅎㅎ 저는 인스타그램 광고를 통해 빡공단에 대해 처음 봤습니다. 무료도 아니었고, 각종 후기를 찾아봤을 때 이 것이 큰 도움이 되는지 모르겠다는 사람들도 있었으나, 게임 강의가 있는 것을 확인했고, 그냥 게임 만드는 것 한번 배워보자라는 마음으로 신청하게 되었습니다. 그래도 게임을 만드는 것 자체는 재밌었습니다. 문제는 다른 곳에 있었죠. 한달동안 매일매일 공부하고, 학습일지를 작성하는 것이었으나.... 10분짜리 강의만 하루에 하기엔 너무 짧은 느낌이 있었고, 제 포스팅을 보면 거의 7일이면 다 들었습니다. 강의도 사실 옛날 강의였고, 아마 21년, 22년? 그러다 보니 Q&A는 제대로 이루어 지지 않았습니다. 그리고 10분짜리 26개다보니 깊은 내용을 ..

자동주차 알고리즘

https://www.youtube.com/watch?v=vx6bq14nH2Ahttps://kr.mathworks.com/help/driving/ug/automated-parking-valet.html  Automated Parking ValetYou clicked a link that corresponds to this MATLAB command: Run the command by entering it in the MATLAB Command Window. Web browsers do not support MATLAB commands.kr.mathworks.com Gazebo 상 구현 2024.03.05 - [자율주행 자동차] - 자율주행 자동차 erp-42 gazebo simulation 상 autom..

자연어 처리 - NN을 이용한 classification, regression 실습

Classification 여긴 스크린 캡쳐라 보기 불편할 수 있습니다. 코드를 붙여넣기 식으로 보고 싶다면 이 밑 링크로 가서 보시면 훨씬 편합니다. 2023.11.24 - [인공지능/공부] - AI 챌린지 예선 AI 챌린지 예선 숫자맞추기는 이미 했던 거니까! import tensorflow as tf import numpy as np import pandas as pd from keras.datasets.mnist import load_data from keras.models import Sequential, Model from keras.layers import Dense, Input ,Flatten, Dropout, Conv2D yoonschallenge.tistory.com XOR문제를 풀어보..

자연어 처리 - Multi task learning

이전에 계속 배웠었던 내용이다. 앞과 뒤만 짤라서 그대로 사용하는 것! 첫번째는 그냥 학습하면 된다. 두번째는 A의 파라미터를 B에 그대로 집어넣고 그대로 학습한다. A와 B의 입 출력의 개수가 다르기 때문에 FC나 입력부분을 수정해줘야 한다. 세번째는 A가 학습한 것을 남기기 위해 특정 영역은 프리즈 시킨다. 이렇게하면 A의 학습내용을 잃지 않을 수 있다. 그러나 B 특화에 도달하지 못할 수 있으므로 잘 선택해야 한다. 데이터가 많고 사전 학습 모델과 성격이 다름 => 동물 분류와 의료 분류 데이터셋 많고 사전 학습 모델도 같음 == 동물 분류 두개 각각 경우의 수에 따라 다른 전략을 선택한다. 이 4가지 경우의 전략을 잔 선택해야 한다. 거리가 줄어들도록 학습을 하게 된다. 모든 로스를 다 더하는 방..

자율주행 - 라이더를 통한 차선 탐지

또다시 자율주행을 시작하게 되었네요 ㅎㅎ... 이번에는 제가 인공지능쪽에 흥미가 생긴터라 인지팀으로 참여하게 되었습니다. 바로 시작한 일은 차선탐지인데 비전으로만 하고 있더라고요. 미션중에 어두운 부분도 있다고 하니 라이더를 통한 차선 인지를 시작하기로 했습니다. https://kr.mathworks.com/help/lidar/ug/lane-detection-in-3d-lidar-point-cloud.html Lane Detection in 3-D Lidar Point Cloud - MATLAB & Simulink - MathWorks 한국 이 예제의 수정된 버전이 있습니다. 사용자가 편집한 내용을 반영하여 이 예제를 여시겠습니까? kr.mathworks.com 모든 내용은 여기서 왔고, 살짝 불편한점이..

자연어 처리 - Transformer

번역 모델과 같은 경우에서 이러한 문제가 많이 생겼다. 필요한 정보들의 스코어(soft max를 한 attention score)와 가중합을 통해 ctx를 만들어서 연산을 통해 합치고 today가 나오게 된다. RNN이나 CNN을 사용하지 않고 작성한 논문 encoder과 decoder의 역할은 이전과 똑같다. input에서 +로 바로 연결해주는 skip connection이 적용되어 있는 것을 볼 수 있다. norm은 layer norm을 사용하게 된다. FF는 1layer 이다. 다중 레이어 X N번 만큼 인코더 블록을 여러번 반복하게 된다. Query Linear와의 유사성을 내적을 통해 계산하고 소프트 맥스를 통해 attention 가중치를 구한다. 현재의 나 자신 (x1)과 다른 것 (x2,x3..

자연어 처리 - RNN, LSTM

RNN 우린 이 점선으로 된 부분을 예측해야 한다. 그냥 MLP를 사용하면 현재 데이터나 과거 데이터나 신경쓰지 않는다. CNN은 패턴을 잡는 모델이라 순서를 신경쓰지 않아 문제가 생긴다. 시간의 순서를 신경써야 한다. inductive bias = 사람의 직관 h = 이전에서 넘어온 데이터 스퀸스 단위로 자르게 된다면 첫번째 h가 애매해지게 된다. h를 기억하여 다음 스텝에 사용한다. 2023.12.15 - [인공지능/공부] - 시계열 데이터(주가, imu data) 예측 인공지능 - RNN, LSTM 시계열 데이터(주가, imu data) 예측 인공지능 - RNN, LSTM RNN은 시간에 따라 변화하는 데이터를 얘측할 때 사용된다. stationary( 변화없는 )데이터 NON - stationar..

자연어 처리 - auto encoder, CNN

Auto encoder 오른쪽은 처음보네요 중요한 정보들만 남기고 나머지 정보는 손실 됩니다. z가 그대로 x를 카피할 수 있다. 그러므로 특별한 방식이 필요하다. i는 데이터의 개수가 아닌 차원이다. 즉 N은 차원의 수 이다. 노이즈를 주고 원래 데이터로 돌아가도록 학습! 2023.12.14 - [인공지능/공부] - 생성형 인공지능 Autoencoder - 개념 생성형 인공지능 Autoencoder - 개념 여태까지 FCN, CNN, CAM 모두 supervised learning였다. 즉 지도학습으로 input(data)와 정답(label)이 주어지는 학습이었다. 그러나 오늘 다룰 Autoencoder는 label이 없는 즉 정답이 input인 unsupervised learning이다. 나 yoon..

자연어 처리 - 모델 학습

시그모이드 때문에 소실이 커진다! 0보다 작은 값에선 미분값이 0이라는 문제가 생겨서 리키렐루가 나오는데 일단 넘어가네유 여기서 리키렐루가 나오네요 가중치 초기화는 0이거나 똑같은 값으로 하지 말라고 했었습니다! 이제 어떻게 하는게 좋은지 봅시다! 분산을 적당히 조절하는 것이 중요하다. 이거하면 바이어스가 필요없다고 했던것 같기도 하고... 이것만 가지고는 뭔가 batch와 layer를 이해하기 어려울것 같아서 gpt 센세를 활용하겠습니다. Batch Normalization과 Layer Normalization은 둘 다 신경망의 학습을 안정화하고 가속화하는 데 사용되는 기술입니다. 두 기술 모두 데이터의 평균과 분산을 정규화하는 과정을 통해 내부 공변량 변화(internal covariate shift..

728x90
728x90