반응형

전체 글 906

동역학 14주차

공부하면 공부할수록 왜 기계과를 하다가 코딩으로 넘어갔는지, 인공지능으로 넘어갔는지 잘 알것 같아요...이번 시험만 끝나면 기계과랑은 안녕이니 이번까지만 파이팅.................. 결국 이동거리 구해서 T2만 잘 구하면 답을 구해낼 수 있습니다.  에너지 보존 법칙!    이젠 범위를 살짝 넘어간 것 같아서나중에 한번 싹 정리하면서 다시 봐야할 것 같네요...제 머리로는 이제 이해가 슬슬 가지 않길 시작...    외부의 충격량엔 선형과 회전 모두가 있다!각 운동량, 각충격량, 선형 운동량, 선형 충격량 모두 신경써야 한다.

기타 2024.12.08

동역학 13주차 정리

외우자뭔가 이해가 안된다면 그냥 일단 외우기라도 하자....더 이상 물리를 할 건 아니니까...   봉이 고정되어있고, 힘과 각속도 모두 주어졌네요여기선 x,y로 나누기보다는 norm과 tangential로 나눴다. o1한테 풀어보라고 시켰는데 잘 푸네요먼저 용어 정리를 하겠습니다. 여기서 O_t는 O점(핀)에서 원판을 잡아주는 ‘탄젠셜(tangential)’ 방향의 반력입니다. 즉, 원판의 질량중심 G의 운동 방향을 기준으로, 접선방향(tangential direction)에 작용하는 힘입니다. 이 문제에서 탄젠셜 방향이란 G가 회전하려고 할 때, 그 순간 G가 움직이려고 하는 방향(원판 둘레를 따라가는 방향, 아래쪽)으로 본 것입니다.질문하신 핵심은 다음과 같습니다:"축 O는 움직이지 않는데, 왜 거..

기타 2024.12.08

동역학 12주차 정리

이제 특정 지점에 고정이 되거나, 고정 없이 움직이기, 그 봉 위에서도 상대적으로 움직이는 것 모두 해결했습니다. 회전이 들어가면 관성 Moment를 신경써야 한다!I = Mass Moment of Inertia = 관성 모멘트!Fr = mar = M = I alphaalpha = a / r mar = I * a / r  => I = m r^2Rigid, 부피, 회전 => 자세, 위치가 중요함 여기선 속이 빈 원통이다.  여기는 속이 찬 원뿔형태이다.    이거 외우는게 답인가 싶습니다.... 결국 이러한 연산 때문에 막대기의 중앙에서 끝으로 옮기면 1/12 * M L^2 에 (L/2)^2 M이 더해져서 1/3 M L^2이 된다. 큰 원에서 작은 원을 빼면 완성이다. 각각의 무게 중심을 통해 전체 무게 ..

기타 2024.12.07

Agent AI: Surveying the Horizons of Multimodal Interaction - 논문 리뷰

https://arxiv.org/abs/2401.03568 Agent AI: Surveying the Horizons of Multimodal InteractionMulti-modal AI systems will likely become a ubiquitous presence in our everyday lives. A promising approach to making these systems more interactive is to embody them as agents within physical and virtual environments. At present, systems leverage existingarxiv.org 이 논문은 LLM 뿐많이 아니라 VLM을 활용하여 AGI 도달하기 위한 A..

InterAct: Exploring the Potentials of ChatGPT as a Cooperative Agent - 논문 리뷰

https://arxiv.org/abs/2308.01552 InterAct: Exploring the Potentials of ChatGPT as a Cooperative AgentThis research paper delves into the integration of OpenAI's ChatGPT into embodied agent systems, evaluating its influence on interactive decision-making benchmark. Drawing a parallel to the concept of people assuming roles according to their unique strengtarxiv.org ReAct를 발전시킨 논문이네요2024.11.26 - [..

How Well Can LLMs Negotiate? NegotiationArena Platform and Analysis - 논문리뷰

https://arxiv.org/abs/2402.05863 How Well Can LLMs Negotiate? NegotiationArena Platform and AnalysisNegotiation is the basis of social interactions; humans negotiate everything from the price of cars to how to share common resources. With rapidly growing interest in using large language models (LLMs) to act as agents on behalf of human users, such LLM agarxiv.org 음 이 논문은 그래도 LLM까지는 갔지만 LLM을 학습하거..

AI for Global Climate Cooperation: Modeling Global Climate Negotiations, Agreements, and Long-Term Cooperation in RICE-N - 논문리

https://arxiv.org/abs/2208.07004?utm_source=chatgpt.com AI for Global Climate Cooperation: Modeling Global Climate Negotiations, Agreements, and Long-Term Cooperation in RICE-NComprehensive global cooperation is essential to limit global temperature increases while continuing economic development, e.g., reducing severe inequality or achieving long-term economic growth. Achieving long-term cooper..

기타 2024.12.05

A Real-World WebAgent with Planning, Long Context Understanding, and Program Synthesis - 논문 리뷰

https://arxiv.org/abs/2307.12856 A Real-World WebAgent with Planning, Long Context Understanding, and Program SynthesisPre-trained large language models (LLMs) have recently achieved better generalization and sample efficiency in autonomous web automation. However, the performance on real-world websites has still suffered from (1) open domainness, (2) limited context lengtarxiv.org WebAgent는 실제 ..

AgentGym Evolving Large Language Model-based Agents across Diverse Environments - 논문 리뷰

https://arxiv.org/abs/2406.04151 AgentGym: Evolving Large Language Model-based Agents across Diverse EnvironmentsBuilding generalist agents that can handle diverse tasks and evolve themselves across different environments is a long-term goal in the AI community. Large language models (LLMs) are considered a promising foundation to build such agents due to their generarxiv.org 여기서는 직접 LLM을 학습하는 A..

Walking Down the Memory Maze: Beyond Context Limit through Interactive Reading - 논문 리뷰

https://arxiv.org/abs/2310.05029 Walking Down the Memory Maze: Beyond Context Limit through Interactive ReadingLarge language models (LLMs) have advanced in large strides due to the effectiveness of the self-attention mechanism that processes and compares all tokens at once. However, this mechanism comes with a fundamental issue -- the predetermined context windowarxiv.org 이 논문은 트리 구조를 통해 짧게 요약해..

728x90
728x90