반응형

2024/12/01 4

역사와 한국의 영토 11주차 - 강점기 이전의 독도

1차시 - 울릉도사적1. 장한상의 울릉도사적1) 조선왕조, 장한상을 울릉도로 파션17세기 말 울릉도 분쟁조선 왕조는 장한상을 울릉도로 파견1969.09.19 - 삼척 출발0920 ~ 1003 - 울릉도에 10여일 체류하면서 울릉도를 살핌1006 - 삼척으로 돌아옴 이 기록을 울릉도사적에 기록  2) 울릉도사적 독도관련 부분 국역서쪽을 바라보면 대관령의 구불구불한 모습이 보이고, 동쪽을 바라보면 바다 속에 한 섬이 보이는데, 아득하게 신 방향에 위치하여 그 크기는 울도(=울릉도)의 0.33 미만이고, 거리는 300여리에 불과하다. 3) 울릉도 사적 해설장한상이 울릉도 신 방향, 즉 동남동에 본 섬은 바로 독도다.울릉도와 독도 간 거리장한상 - 300리(120km)실측 - 90km에 가까운 수치독도의 크기장..

기타 2024.12.01

Voyager: An Open-Ended Embodied Agent with Large Language Models - 논문 리뷰

https://arxiv.org/abs/2305.16291 Voyager: An Open-Ended Embodied Agent with Large Language ModelsWe introduce Voyager, the first LLM-powered embodied lifelong learning agent in Minecraft that continuously explores the world, acquires diverse skills, and makes novel discoveries without human intervention. Voyager consists of three key components: 1) anarxiv.org이 논문도 마인크레프트 환경에서 LLM이 세부적인 목표를 정하고,..

Progressive Prompts: Continual Learning for Language Models - 논문 리뷰

https://arxiv.org/abs/2301.12314 Progressive Prompts: Continual Learning for Language ModelsWe introduce Progressive Prompts - a simple and efficient approach for continual learning in language models. Our method allows forward transfer and resists catastrophic forgetting, without relying on data replay or a large number of task-specific parametearxiv.org 이 논문의 특징에 대해 크게 모르겠네요결국 Soft prompt tuni..

Sparse Autoencoder를 통한 LLM의 Bias 줄이기 - 성에 따른 직업 6

2024.11.12 - [인공지능/XAI] - Sparse Autoencoder를 통한 LLM의 Bias 줄이기 - 성에 따른 직업 5논문에 나온 이 표와 제가 만든 SAE 모델을 비교해 봐야 합니다.Explicit이랑 Implicit는 무시하고 숫자만 보면 됩니다.이 결과가 8layer라서 16, 24까지만 더 해보겠습니다.편향이 많이 줄었습니다...? 확실하게 편향이 줄어든 것을 볼 수 있었고 표도 함 가져와봐야 겠네요 JobDominanceMale ProbabilityFemale ProbabilityDiverse ProbabilityMale Probability (No SAE)Female Probability (No SAE)Male Probability Change (%)Female Probabil..

인공지능/XAI 2024.12.01
728x90
728x90