본문 바로가기
반응형

분류 전체보기106

Graph-based의 추천시스템의 성능 평가에 있어서, Recall, NDCG가 주요한 이유 Recall (재현율): Recall은 추천시스템에서 중요한 지표 중 하나입니다. 이는 실제로 사용자가 관심을 가지는 아이템 중 시스템이 얼마나 많은 아이템을 정확하게 추천하는지를 나타냅니다. 그래프 기반 추천시스템에서는 사용자와 아이템 간의 관계를 고려하기 때문에, 실제로 사용자가 연결된 아이템들 중 시스템이 몇 개를 성공적으로 찾아냈는지를 보여줍니다. 그렇기 때문에 Recall은 그래프 정보를 활용하는 추천시스템의 성능을 평가하는데 있어서 중요한 지표입니다. NDCG (Normalized Discounted Cumulative Gain): NDCG는 순위된 추천 목록의 품질을 평가하는 지표 중 하나입니다. 그래프 기반 추천시스템에서는 사용자와 아이템 간의 관계를 고려하여 추천 목록을 생성하는데, 이 .. 2023. 8. 7.
머신러닝에서 Precision(정밀도), Recall(재현율)의 차이 Precision(정밀도) 정밀도는 최대한 “정밀”하게 양성을 추출해야 하는 경우에 중요합니다. 알고리즘 매매에서 거액의 돈이 왔다갔다 하는데 잘못된 시그널에 따라 투자하면 안되기에 진짜 진짜 positive라고 확신하는 경우에만 양성으로 판단해야 할 때 precision을 높입니다. 통계적으로는 False Positive(Type I error)를 조심해야 하는 상황에서는 precision이 recall보다 중요합니다. Recall(재현율) 재현율은 최대한 많은 양성을 추출(recall)해내야 하는 상황에서 중요합니다. 은행에 복면을 쓴 누군가가 들어왔는데 저 사람이 강도인지 아닌지 확신이 없더라도 경보부터 울리고 봐야하기에, 양성(positive)이라는 강한 확신이 없더라도 최대한 많은 양성을 잡아내.. 2023. 8. 7.
inductive, transductive graph setup 의 차이 인덕티브(inductive) 그래프 설정은 그래프의 일부 또는 새로운 노드에 대한 예측을 수행하는 상황을 가정합니다. 이 설정에서는 모델이 이전에 관찰된 노드의 특성과 연결 관계를 학습하여 새로운 노드에 대한 예측을 수행합니다. 즉, 모델은 관찰된 노드의 정보를 활용하여 새로운 노드의 특성을 일반화하고 예측합니다. 인덕티브 그래프 설정은 일반적으로 훈련 세트와 테스트 세트가 분리되어 있으며, 새로운 노드가 훈련 과정에서 접근할 수 없는 정보를 가지고 있는 상황에서 유용합니다. 트랜스덕티브(transductive) 그래프 설정은 그래프의 전체 또는 일부 노드에 대한 예측을 수행하는 상황을 가정합니다. 이 설정에서는 모델이 그래프의 전체 구조와 모든 노드의 특성을 고려하여 예측을 수행합니다. 즉, 모델은 그.. 2023. 8. 7.
over-smoothing, over-squashing이란? 오버-스무딩(over-smoothing)과 오버-스쿼싱(over-squashing)은 머신 러닝 및 딥 러닝에서 발생할 수 있는 문제입니다. 오버-스무딩은 그래프 신경망(GNN)이나 합성곱 신경망(CNN)과 같은 모델에서 발생하는 현상입니다. 이 현상은 네트워크가 반복적으로 정보를 통합하면서 노드 또는 픽셀의 특징을 지나치게 평활화시키는 결과를 가져옵니다. 즉, 네트워크가 인접한 노드 또는 픽셀의 정보를 계속해서 평균화하면서 지역적인 특징이 희석되고, 전체적으로 유사한 특징을 가진 노드 또는 픽셀로 수렴하게 됩니다. 이로 인해 네트워크가 지역적인 차이를 인식하지 못하고 전체적인 특징만을 반영하게 되는 문제가 발생합니다. 오버-스쿼싱은 활성화 함수(activation function)를 사용하는 모델에서 .. 2023. 8. 7.
spectral theory - graph adj matrix를 Laplacian으로 나타내는 프로세스와 Laplacian으로 표현하는 이유? 스펙트럴 이론은 그래프의 인접 행렬을 라플라시안으로 표현하는 과정입니다. 라플라시안으로 표현하는 이유는 그래프의 구조적인 특성을 파악하고 그래프에 내재된 정보를 추출하기 위해서이며, 라플라시안은 그래프의 행렬 표현 중 하나로, 각 정점의 연결 상태를 나타내는 인접 행렬을 사용하여 구할 수 있습니다. 이때, 라플라시안 행렬은 그래프의 노드 간 연결 관계와 차수(degree)에 기반하여 구성되고, 그래프의 노드 간 연결 관계를 나타내는 인접 행렬을 L이라고 한다면, 라플라시안 행렬은 L = D - A로 표현할 수 있습니다. 여기서 D는 차수 행렬(Degree Matrix)이고, A는 인접 행렬(Adjacency Matrix)입니다. 차수 행렬은 그래프의 각 정점의 차수를 대각 원소로 가지는 대각 행렬로 정의.. 2023. 8. 7.
알고리즘 가이드 도움이 될 링크들 백준 온라인 저지 - https://www.acmicpc.net 백준 온라인 저지 슬랙 - https://www.acmicpc.net/slack 백준 문제 난이도 보여주는 서비스 - https://solved.ac 알고리즘 랭겜 코드포스 - https://codeforces.com (그린 민트 블루 퍼플 오렌지 레드 누텔라 등은 코드포스 레이팅을 의미합니다) 라이님의 알고리즘 강좌 - https://kks227.blog.me/220769859177 BaaaaaaaarkingDog님의 강좌 - https://blog.encrypted.gg/category/강좌 Lawali님의 강좌 - https://blog.naver.com/PostList.nhn?blogId=ingu9981&catego.. 2023. 8. 7.
배열에서 최솟값 찾기 n = [13,6,9,8,12] def min(array, com): # array의 비교할 것이 남아있지 않다면, if not array: # com을 넘기면서 프로그램을 종료한다. return com # 배열의 첫번째를 now로 선언. now = array[0] # now가 com보다 작다면, if now < com: # 배열의 첫번째수가 비교하는 수보다 작으면, now를 com로 대체한다. return min(array[1:], now) # now가 com보다 작지 않다면, else: # 배열의 첫번째가 비교하는 수보다 작지 않다면, com을 유지한다. return min(array[1:], com) print(min(n, n[0])) 해당 함수의 시간복잡도는 배열의 길이의 비례만큼 실행되기 때문에.. 2023. 8. 7.
Awesome-Computer Vision GAN paper Generative Adversarial Networks, 2014, NIPS, Paper Conditional Generative Adversarial Nets, 2014, Arxiv, Paper Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks, 2016, ICLR, Paper 2023. 8. 7.
Awesome-Computer Vision Detection paper Rich feature hierarchies for accurate object detection and semantic segmentation, 2014, CVPR, Oral, Paper Fast R-CNN, 2015, ICCV, Oral, Paper Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, 2015, NIPS, Paper You Only Look Once: Unified, Real-Time Object Detection, 2016, CVPR, Oral, Paper SSD: Single Shot MultiBox Detector, 2016, ECCV, Oral, Paper Training Region-b.. 2023. 8. 7.
Awesome-Recommender systems 2022 PinnerFormer: PinnerFormer: Sequence Modeling for User Representation at Pinterest (KDD&#39;22) ItemSage: ItemSage: Learning Product Embeddings for Shopping Recommendations at Pinterest (KDD&#39;22) DuoRec: Contrastive Learning for Representation Degeneration Problem in Sequential Recommendation (WSDM&#39;22) FMLP-Rec: FilterEnhanced MLP is All You Need for Sequential Recommendation (WWW&#3.. 2023. 8. 7.
728x90
반응형