인기 글
-
[IBK 기업은행] 동계인턴 준비&합격 후기 (면접관이 말해주는 채용 비하인드)
2022.12.14 = 전역 복학 전에 의미 있는 활동을 하고 싶었다. '인턴을 해보자!'라는 생각에 지원해 버렸다. 지원 기간 2022.10.27(목) ~ 2022.11.14(월) 준비 기간 약 2일 (군대 때문에 시간이 없었다) 자기소개서 뚱땅뚱땅쓰고, AI역량검사는 2시간 전에 후다닥 실기시험은 '아~ 발표는 내가 좀 하지' 하면서 그냥 갔다. 인턴 채용 절차는 다음과 같았다. 서류심사를 통해 약 2.5 배수를 뽑았고, 실기시험(PT발표, 토론, 인적성 면접)에서 최종 합격자를 가렸다. 서류를 접수한 사람은 AI역량검사를 봐야 한다. AI역량검사는 어플을 깐 후, 정해진 시간에 들어와 대답하는 방식이다. 배치된 부서의 직원분이 알고 보니 면접관이셨는데, 비대면 면접은 무조건! 조용하고, 편안한 장소..
2023.02.14 19:00 -
[자료구조] 원형 큐(Circular Queue) 개념 및 코드
이번 포스팅에선 큐의 변형인 원형 큐(Circular Queue)에 대해 알아보겠습니다. 큐에 대한 사전 지식이 없다면 이해가 어려울 수 있으니, 미리 개념을 습득하고 오시길 바랍니다. [큐(Queue) 개념 이해하기] https://mengu.tistory.com/30?category=931463 [자료구조] 큐(Queue) 개념 및 코드 구현 이번 포스팅에선 큐(Queue)의 개념과 코드 구현을 할 것이다. 만약 스택(Stack) 개념을 알지 못한다면 이전 포스팅을 보고 오자. [이전 포스팅 URL: https://mengu.tistory.com/29] [자료구조] 스택(Stack) 개념.. mengu.tistory.com 목차 📃 원형 큐(Circular Queue) 정의 및 원리 📃 원형 큐 구현..
2022.07.14 12:20 -
[선형대수학] 행렬 벡터의 곱
행렬과 벡터를 곱하면 어떻게 될까요? 오늘은 행렬 벡터의 곱에 대해 다뤄보도록 하겠습니다. 📌 행렬 A와 벡터 x의 곱셈 행렬과 벡터는 서로 곱할 수 있습니다. 하지만 어떻게 곱해지는지 잘 살펴야 제대로 활용할 수 있습니다. 결론부터 말하자면, 행렬 A(m*n)와 벡터 x(n*1)을 곱하면 벡터 b(m*1)이 나옵니다. 벡터 b의 첫 번째 열인 b1은 (a11*x1 + a12*x2 +.... + a1m*xn)과 같습니다. 밑의 예시를 보면 더 확실하게 이해할 수 있습니다. 즉, 행렬과 벡터의 곱은 행렬의 각 열과 벡터 내적의 집합니다. 이해가 안 갈 것을 예상했으므로, 좀 더 쉬운 관점을 보여주겠습니다. 📌 첫 번째 관점 : 행 벡터와 벡터 x의 내적 행렬 A를 두 개의 행벡터 a1과 a2가 있는 행렬이..
2022.06.18 12:41 -
[선형대수학] 행렬의 영공간 계산하기(Calculationg the null space)
행렬의 영공간이란? 행렬 A와 곱하여 영벡터를 만드는 모든 벡터 x의 집합입니다. 자세한 개념이 생각 안 나신다면 저번 포스팅을 보며 복습해주세요. https://mengu.tistory.com/82?category=937657 [선형대수학] 행렬의 영공간 (Null space of a matrix) 행렬의 영공간에 대해 알아보는 포스팅입니다. 행렬은 어느정도 이해가지만, 영공간은 대체 무슨 말인지 모르겠습니다. 영공간을 이해하기 위해선 먼저 부분 공간에 대한 복습이 이뤄져야 합니 mengu.tistory.com 이번 포스팅에선 행렬의 영공간을 직접 구해보겠습니다. 📌 영공간 정의 복습 행렬 A가 있습니다. 3행 4 열이며, 벡터 x와 곱해지면 0 벡터가 된다는 것이 밑의 그림입니다. 위의 그림을 하나의..
2022.06.25 12:23 -
[미래에셋] 제 29기 해외교환 장학생 합격 후기
해외 대학의 교환학생으로 선발된 학부생을 대상으로 장학금 지원을 통한 인재육성에 기여하고자 함 - 미래에셋 - 항상 그렇듯 계획에 맞춰 해외교환 장학생에 지원했다는 아니고,, 친구가 알려줘서 그제서야 했다. 지금부터 장학생 선발 과정을 알려주도록 하겠다! https://www.miraeassetfoundation-recruit.com/ 미래에셋박현주재단 해외교환 장학생 모집 미래에셋박현주재단 해외교환 장학생 모집 www.miraeassetfoundation-recruit.com 1. 선발인원 총 250명 이내인데, 상경계열은 75명 정도 뽑고 인문사회계열은 25명 정도 뽑는 것 같다. 친구도 문과계열이라 문이 좁았다. 2. 장학금 지원 우리 학교에서 자체적으로 주는 장학금이 존재하는데, 걔는 300-40..
2023.07.15 17:50
최신 글
-
[Paper review] TabNet: Attentive Interpretable Tabular Learning 및 TabNet 실습
연구실 논문 세미나에서 들은 내용을 정리하고자 한다.논문 제목은 ' TabNet: Attentive Interpretable Tabular Learning'이다. Paper link:https://ojs.aaai.org/index.php/AAAI/article/view/16826 TabNet: Attentive Interpretable Tabular Learning | Proceedings of the AAAI Conference on Artificial Intelligence ojs.aaai.org 논문 간단 설명Tabular 데이터에서 주로 결정 트리(Decision Tree) 기반 모델들이 많이 사용된다. 하지만 트리 기반 모델은 표현력의 한계가 있으며, 딥러닝이 다양한 데이터 유형을 처리하는 ..
2024.09.13 15:30 -
[강화학습] SARSA와 DQN 개념 정리
심층 강화학습의 주요 포인트를 확실하게 파악하고 넘어간다.그 후, SARSA와 DQN의 개념을 정리하고 둘의 차이점을 비교한다. * 본 포스팅은 책 'Foundations of Deep Reinforcement Learning: Theory and Practice in Python'을 참고하고 정리한 것임을 밝힙니다. 포스팅 내에 쓰인 수식과 알고리즘 그림은 책에서 가져온 것입니다. 1. Value-based Algorithm $V^{\pi}(s)$ or $Q^{\pi}(s, a)$ 이전 포스팅에서 다룬 Model-based 기반 REINFORCE 알고리즘은 agent가 직접 policy를 학습해 가는 방식이었다. 하지만 이번 Value-based 알고리즘은 state-action 쌍을 직접 평가하면..
2024.07.05 02:11 -
[Paper review] Towards maximizing expected possession outcome in soccer
이번 포스팅에서 리뷰할 논문은'Towards maximizing expected possession outcome in soccer(2023)' by Pegah Rahimian https://journals.sagepub.com/doi/10.1177/17479541231154494?icid=int.sj-full-text.similar-articles.4 딥러닝 신경망을 이용하여 팀의 대략적인 strategy를 파악하고, 거기 위에 강화학습을 하여 Optimal policy를 찾아내는 논문이다. 키워드는 RL과 축구가 되겠다.** 이 포스팅의 모든 figure과 표는 리뷰 논문에서 가져온 것임을 밝힌다. 1. Important QuestionHow to split the whole game into d..
2024.07.03 17:51 -
[강화학습] REINFORCE 알고리즘 : 코드 구현
이번 포스팅에선 REINFORCE 알고리즘을 Pytorch로 간단하게 구현을 해보고자 한다. 다른 RL Algorithms과는 달리 아주 간단하게 예제 표현이 가능하여 어렵지 않다.본 포스팅을 보기 전, REINFORCE 개념은 확실하게 인지하고 있어야 함을 알린다. Last posting내용: 강화학습 알고리즘인 REINFORCE의 개념과 수식에 대해 살펴보았다.요약: reward의 합인 목적함수를 최대화하는 최적의 policy 찾는 것이 목표인 알고리즘 https://mengu.tistory.com/136 [강화학습] REINFORCE 알고리즘 : 개념 및 수식강화학습에 대해 공부하고 있어, 여러 알고리즘의 수식과 코드를 정리하고자 한다.이 포스팅은 첫 발걸음이며, REINFORCE 알고리즘에 대..
2024.06.02 11:55 -
[강화학습] REINFORCE 알고리즘 : 개념 및 수식
강화학습에 대해 공부하고 있어, 여러 알고리즘의 수식과 코드를 정리하고자 한다.이 포스팅은 첫 발걸음이며, REINFORCE 알고리즘에 대해 다루겠다.파이팅! 본 포스팅은 책 Foundation of Deep Reinforcement Learning / laura.G에서 수식 및 내용을 참고하여 쓰인 글입니다. 1. REINFORCE 개념 1.1. Model-free vs Model-Based 강화학습은 크게 Model-free, Model-Based로 나뉜다. Model-Based 강화학습은 trajectory를 예측하는 모델을 기반으로 학습한다. 다양한 가짓수의 action에 대한 확률 높은 trajectory를 예측할 수 있는데, 이 경우 무작위로 sampling 된 trajectory를..
2024.05.27 22:52 -
[ML] 차원 축소 (1) - 정의, PCA, 예제코드
크게 유의미하지 않은 정보는 버리거나 뭉쳐라. 이번 블로그에선 차원 축소에 대해 다루고자 한다. 왜 차원을 축소해야 하고, 구체적으론 어떤 방법과 수학적 원리가 존재하는지 살펴보자. 1) 차원의 저주 여기 동물을 분류해야 하는 문제가 있다. 동물을 훈련 샘플이라 지칭하고, 동물들의 특성 500개가 주어졌다고 하겠다. 특성들을 바탕으로 토끼, 고양이, 거북이를 분류해야 한다. 특성이 많을수록 정확한 분류를 할 수 있을 것 같지만, 실상은 그렇지 않다. 기하급수적으로 늘어난 계산량으로 인해 모델 훈련이 느려지고, 좋은 솔루션을 찾기 힘들어진다. 또한 과대적합 문제가 발생할 수 있다. A, B 개체가 2개의 특성을 가졌을 때, 아래와 같이 그래프로 나타낼 수 있다. A와 B의 거리는 \[\sqrt{(5-2)^..
2024.02.26 21:17 -
[Programmers] 구명보트 - Python
1. 문제 설명 2. 제한 조건 & 입출력 예 3. 시행착오 뭔가 정렬을 하면 안 될 것 같았다. 살짝 뻔하다고 생각해서. 3.1. 첫 번째 접근. Stack에 Limits 뺀 값을 저장하고 대조 for 문을 돌려서 Stack의 수보다 작으면 빼는 식으로 Stack의 요소 수를 늘렸다. 하지만 이 방법은 보트에 2명을 태운다는 조건을 지키지 못했으므로 정답이 아니었다. # Method 1. def solution(people, limit): stack = [100] for one in people: n = 0 for i in range(0, len(stack)): if one 0: if n_list[subs - i] > 0: n_list[subs - i] -= 1 n_list[n] -= 1 count +..
2023.10.07 21:50 -
[Programmers] 큰 수 만들기 - Python
1. 문제 설명 2. 제한 조건 & 입출력 예 3. 시행착오 3.1. 첫 번째 접근. 단순 정렬 혹시나 하는 마음으로, 그냥 정렬하고 앞부터 끊었다. 당연히 정답이 아니었다. 3.2. 두번째 접근. i와 i+1의 비교 i번째 수와 i+1번째 수를 비교하고, i+1 번째 수가 더 크면 i번째 수를 제거하는 방식으로 문제를 풀었다. 이 경우, 4177252841, 4 이렇게 주어졌을 때, 정답이 77841이 나왔다. 즉, 무조건 큰 수를 살린다고 결괏값이 커지는 것은 아니란 이야기다. 3.3. 세번째 접근. K를 범위로 하여 Number를 자르고, 그 안에서 최고값 살리기 Step 1과 Step 2로 나누어, 맨 앞자리 숫자를 확정하는 단계가 그 뒤에 숫자들을 정해 가는 단계로 나눠 진행했다. 테스트 10에..
2023.10.05 22:45