반응형

소프트웨어 944

자율 주행 자동차 장애물 탐지 및 회피 - TEB_Local_Planner

https://wiki.ros.org/teb_local_planner teb_local_planner - ROS Wiki melodic noetic Show EOL distros: EOL distros: indigo jade kinetic lunar indigo: Documentation generated on June 09, 2019 at 04:06 AM (doc job).jade: Documentation generated on October 24, 2016 at 12:10 PM (doc job).kinetic: Documentation generate wiki.ros.org Package Summary Released Continuous Integration: 3 / 3 Documented The ..

인공지능과 빅데이터 5주차 3차시 - 단층 퍼셉트론의 한계와 다층 퍼셉트론

XOR이 나오겠네요 나왔습니다 XOR!!! 선 하나만 만들어서는 XOR을 구분할 수 없다. 은닉층을 추가했을 때 복잡한 선을 만들 수 있다. BUT 학습은 어떻게????? -> 첫번째 겨울 -> Back propagation! 특징이 구분하기 너무 쉽다! -> 선형 분리 가능 사람조차 구분하기 힘든 일을 인공지능이 해줘야 필요성이 생긴다! 비선형 경계를 통해 좋은 성능을 낸다. 이 문제가 잘 풀린다면 비선형의 문제를 해결할 수 있다. 미분 가능하다 -> back propagation에서 사용된다. 위 과정을 반복하면서 쭉쭉 진행한다. 입력이 어떤 형태로 들어와도 표현 가능하다! 임의로 w와 b의 값을 정한다. -> 출력이 기대출력이 되도록 w와 b를 변화시킨다. 오차함수는 다양하다. 예측과 정답이 같아지..

인공지능/공부 2024.04.01

인공지능과 빅데이터 5주차 2차시 - 신경망과 단층 퍼셉트론

흠 그럼 또 and or xor nand 나오겠네요.. 표현학습 = 신경망으로 구현한다. 신경망 = 방대하고 복잡한 데이터의 특징을 추출하는데 특화 사람이 피쳐를 결정해준다 -> 사람이 꼬리, 귀의 길이를 입력해줬다. 데이터를 그대로 입력해서 출력을 얻는 것 - 표현학습 == 신경망으로 구현한다. 신경망 - 인간의 두뇌를 모방 우린 인공 신경망을 만든 것이다. 시간의 순서대로 각각의 단점을 보완하면서 발전되었다. 단층 퍼셉트론의 한계 - 간단한 문제밖에 풀지 못한다. 입력과 출력 사이에 여러 층을 넣으면 해결할 수 있을 것 같으나 학습을 어떻게 하냐! 히든 레이어를 엄청 늘려보자 ! 표현학습에서 특징을 잘 추출하는 것 같다! -> 또 문제... => 기울기 소실, 과적합... 사람이 뭔가 사전 작업을 해..

인공지능/공부 2024.04.01

인공지능과 빅데이터 5주차 1차시 - 비지도 학습 및 강화 학습 개요

사람은 경험을 통해 지혜로워진다. 머신러닝 - 데이터(경험)를 기반으로 모델을 학습하는 기술 최근에는 다향한 형태의 머신러닝 방법을 개발하고 있다 -> 신경망 기반 학습 신경망 기반 학습 컴퓨터가 스스로 특징을 결정하는 표현학습 가능한 것이다. 사람이 간과한 중요한 특징을 놓치지 않고 학습에 사용한다. 복잡한 특징들이 서로 혼합된 데이터 == 빅데이터 머신러닝의 학습방법 중 비지도학습과 강화학습 배우기! 표현학습 - 데이터의 특징을 컴퓨터가 자동적으로 추출 -> 머신러닝과 다른점 모든 사진에 레이블이 달렸기 때문에 지도 학습에 사용 가능한 것이다. 레이블이 없는 단순 데이터를 특징 끼리 묶어서 레이블을 만든다. 특정 기준을 만들거나 피쳐를 사람이 제공해 주면 컴퓨터가 클러스터를 만든다. 사과와 복숭아, ..

인공지능/공부 2024.04.01

자연어 이해 NLU- 감정 분석 Sentiment Analysis Task

목표 - 대표적 NLU task인 감정 분석 작업에 대해 이해할 수 있습니다. 감정을 감정 그대로 보기 보단 긍정, 부정, 의견 분석 정도로 볼 수 있다. 감성이야 감정이야....? 사전이 잘못되면 틀리겠네요.... 아니면 처음 보는 단어에도 많이 약하고여 극성이나 강도에 따른 주석이 달린 사전을 만든다. -> 사람이 모든 것을 수집 후 구축해야 한다. -> 비용 많이 발생 및 시간의 흐름을 따라잡기 힘들다. and 사전에 없는 것 대응 못한다. SVM - 구축한 통계를 벡터화 다른 지식에 적용할 수 없다..ㅠ -> 일반화 성능이 좋지 않다. 예외 사항이 발생했을 때도 강건하게 대처 가능하다. 이건 계속 안좋다고 했던 구조잖어 그러나 이런 구조에서 크게 나쁠것 같지는 않네요 CNN - 각 부분의 특징을 ..

자연어 이해 (NLU) TASK - 개요

목표 - 자연어 형태의 문장을 이해하는 작업인 자연어 이해 작업에 대해 이해할 수 있다. 재밌는 일이 있었고, 말하고 싶어한다. !!를 보니 엄청났나 보다 등등... syntactic = 표제적인 이해 - 문법적으로 옳은지 사람이 설계한다 -> 시간이 오래 걸리며, 모든 케이스를 포함하기 힘들다. 결국 자연어 이해도 임베딩 잘하기 인거 맞지...? BERT - 자연어 이해 작업을 해결하기 위해 나왔다. 문장간 관계를 양방향으로 확인한다. 문서를 분류, 태깅은 인코더를 사용한다. 전제와 가설을 유사도를 분석하여 판단한다. 관계 지식 그래프를 그리기 위한 필수적인 진행이다.

자연어 처리 python 실습 - 파인 튜닝 실습

파인 튜닝 실습 및 결과 분석 Introduction Chapter 6. 자연어처리를 위한 모델 학습 강의의 파인 튜닝 실습 및 결과 분석 강의입니다. 이번 실습에서는 (1) SKTBrain이 공개한 KoBERT를 네이버 영화 리뷰 감정 분석 데이터셋(nsmc)으로 파인튜닝하고, (2) 파인튜닝한 모델의 감정 분류 작업에 대한 성능과 결과를 분석해보겠습니다. !pip install git+https://git@github.com/SKTBrain/KoBERT.git@master 1. KoBERT 모델 불러오기 오늘 실습에는 SKTBrain에서 공개한 KoBERT-Transformers 모델을 사용합니다! KoBERT 모델은 SKTBrain에서 공개한 한국어 데이터로 사전학습한 BERT 모델로, google..

728x90
728x90