인공지능/논문 리뷰 or 진행

Representation Learning with Large Language Models for Recommendation - 리뷰

이게될까 2024. 7. 24. 15:07
728x90
728x90

https://arxiv.org/abs/2310.15950

 

Representation Learning with Large Language Models for Recommendation

Recommender systems have seen significant advancements with the influence of deep learning and graph neural networks, particularly in capturing complex user-item relationships. However, these graph-based recommenders heavily depend on ID-based data, potent

arxiv.org

 

 

 

논문 제목: Representation Learning with Large Language Models for Recommendation

요약:

이 논문에서는 대형 언어 모델(LLM)을 활용하여 추천 시스템의 표현 학습을 향상시키는 방법을 제안합니다. 기존의 그래프 기반 추천 시스템은 주로 ID 기반 데이터에 의존하여 복잡한 사용자-아이템 관계를 학습하지만, 이러한 접근법은 텍스트 정보의 중요성을 간과할 수 있습니다. 또한 암묵적 피드백 데이터의 사용은 노이즈와 편향을 초래할 수 있습니다. 이를 해결하기 위해 LLM을 활용한 표현 학습을 통해 보다 정교한 사용자 행동과 선호를 반영하는 RLMRec 프레임워크를 제안합니다.

문제 해결 의도:

  • ID 기반 데이터만 사용하는 기존 그래프 기반 추천 시스템의 한계 극복
  • 암묵적 피드백 데이터에서 발생하는 노이즈와 편향 문제 해결
  • 텍스트 정보를 효과적으로 활용하여 사용자와 아이템의 표현 학습 향상

시도한 방법:

  • LLM을 이용한 사용자 및 아이템 프로파일링
  • 텍스트 신호와 협업 관계 신호 간의 크로스-뷰 정렬을 통해 표현 학습 향상
  • 상호 정보 극대화를 통한 텍스트 신호 통합의 이론적 근거 제공

사용한 방법:

  1. RLMRec 프레임워크:
    • LLM을 활용한 표현 학습을 통해 추천 시스템의 성능을 향상시키는 모델 불가지론적 프레임워크
    • 텍스트 신호를 보조 신호로 통합하여 사용자와 아이템의 프로파일을 LLM을 사용해 생성
    • 상호 정보 극대화를 통해 텍스트 신호와 협업 관계 신호의 정렬 수행
  2. 프로파일 생성:
    • 사용자 및 아이템의 프로파일을 생성하여 텍스트 정보를 표현 학습에 통합
    • 아이템의 경우 제목, 설명, 속성, 리뷰 등을 포함한 텍스트 정보를 사용
    • 사용자의 경우 상호작용한 아이템의 텍스트 정보를 사용
  3. 크로스-뷰 정렬:
    • 텍스트 신호와 협업 관계 신호 간의 정렬을 위해 대조 학습과 생성 학습 접근법 사용
    • 대조 학습: 긍정 샘플 쌍을 가깝게 하고 나머지 샘플을 부정 샘플로 처리
    • 생성 학습: 부분적으로 마스킹된 입력을 재구성하여 텍스트 신호와 협업 관계 신호를 정렬

결과:

  • RLMRec를 통합한 추천 시스템은 기존의 그래프 기반 추천 시스템보다 성능이 향상됨
  • 대조 학습과 생성 학습 모두 성능 향상에 기여하지만, 대조 학습이 노이즈에 더 잘 견딤
  • LLM을 활용한 사전 학습은 후속 모델의 성능을 향상시키는 데 유용

한계점:

  • 대규모 LLM을 활용한 경우 실제 추천 시스템에 적용하기 위한 계산 자원과 추론 시간 문제
  • 텍스트 신호에만 의존할 경우 발생할 수 있는 환각 문제
  • 대규모 데이터 처리 시 효율성 저하

이 논문은 LLM의 강력한 텍스트 이해 능력을 활용하여 추천 시스템의 표현 학습을 향상시키는 새로운 방법을 제시하고, 이를 통해 추천 시스템의 정확성과 효율성을 동시에 개선하고자 합니다.

 

 

RLMRec (Representation Learning with Large Language Models for Recommendation) 프레임워크의 구현은 다음과 같은 주요 구성 요소로 이루어집니다:

1. 입력과 출력:

  • 입력: 사용자와 아이템의 상호작용 데이터 및 텍스트 데이터(리뷰, 설명 등)
  • 출력: 추천 리스트 (사용자가 선호할 가능성이 높은 아이템 리스트)

2. 내부 구조:

A. 텍스트 기반 사용자 및 아이템 프로파일 생성

  1. 아이템 프로파일 생성:
    • 아이템의 텍스트 정보(제목, 설명, 리뷰 등)를 입력으로 받아서 프로파일을 생성합니다.
    • LLM을 사용하여 아이템의 텍스트 데이터를 요약 및 통합하여 의미 있는 표현 벡터를 만듭니다.
    • 예: P_v = LLM(S_v, Q_v)
      • 여기서 S_v는 시스템 프롬프트로, 아이템 프로파일 생성을 위한 목적과 형식을 정의합니다.
      • Q_v는 아이템의 텍스트 정보입니다.
  2. 사용자 프로파일 생성:
    • 사용자가 상호작용한 아이템들의 프로파일을 기반으로 사용자 프로파일을 생성합니다.
    • 사용자 리뷰와 아이템 프로파일을 결합하여 사용자 프로파일을 만듭니다.
    • 예: P_u = LLM(S_u, Q_u)
      • 여기서 S_u는 시스템 프롬프트로, 사용자 프로파일 생성을 위한 목적과 형식을 정의합니다.
      • Q_u는 사용자가 상호작용한 아이템들의 텍스트 정보입니다.

B. 텍스트 임베딩 모델을 통한 표현 학습

  • 텍스트 임베딩:
    • 생성된 사용자 및 아이템 프로파일을 텍스트 임베딩 모델을 사용하여 벡터화합니다.
    • 예: s_u = T(P_u), s_v = T(P_v)
      • 여기서 T는 텍스트 임베딩 모델 (예: text-embedding-ada-002)입니다.

C. 협업 필터링 모델과의 정렬

  1. 협업 필터링 기반 임베딩:
    • 기존의 협업 필터링 모델(예: LightGCN)을 사용하여 사용자 및 아이템의 협업 필터링 기반 임베딩을 생성합니다.
    • 예: e_u, e_v = R(x_u, x_v)
      • 여기서 R은 협업 필터링 모델, x_u와 x_v는 초기 사용자 및 아이템 임베딩입니다.
  2. 크로스-뷰 정렬:
    • 텍스트 임베딩과 협업 필터링 임베딩을 정렬하여 두 표현 공간 간의 일관성을 유지합니다.
    • 대조 학습 (Contrastive Learning):
      • 긍정 샘플(positive samples) 쌍을 가깝게 하고, 부정 샘플(negative samples) 쌍을 멀리 떨어뜨립니다.
      • 예: f(s_i, e_i) = exp(sim(σ↓(s_i), e_i))
        • 여기서 sim은 코사인 유사도, σ↓는 다층 퍼셉트론 (MLP)입니다.
    • 생성 학습 (Generative Learning):
      • 협업 필터링 임베딩을 사용하여 마스킹된 텍스트 임베딩을 재구성합니다.
      • 예: f(s_i, e_i) = exp(sim(s_i, σ↑(ê_u)))
        • 여기서 σ↑는 다층 퍼셉트론 (MLP), ê_u는 마스킹된 노드로부터 재구성된 임베딩입니다.

D. 상호 정보 극대화 (Mutual Information Maximization)

  • 상호 정보 극대화:
    • 텍스트 임베딩과 협업 필터링 임베딩 간의 상호 정보를 극대화하여 표현의 질을 향상시킵니다.
    • 예: L_info = -E log[ f(s_i, e_i) / Σ f(s_j, e_i) ]
      • 여기서 L_info는 상호 정보 손실 함수입니다.

E. 모델 최적화

  • 최종 손실 함수:
    • 기본 추천 모델의 손실 함수와 상호 정보 손실 함수를 결합하여 최적화합니다.
    • 예: L = L_R + L_info
      • 여기서 L_R은 기본 추천 모델의 손실 함수입니다.

3. 학습 및 추론 과정

  • 학습:
    • 주어진 데이터셋에서 텍스트 임베딩과 협업 필터링 임베딩을 동시에 학습하여 정렬 및 상호 정보 극대화를 수행합니다.
    • 에포크 단위로 배치 학습을 통해 최적화합니다.
  • 추론:
    • 학습된 모델을 사용하여 새로운 사용자에 대한 추천을 수행합니다.
    • 사용자 프로파일을 생성하고, 협업 필터링 임베딩과 텍스트 임베딩을 정렬하여 최종 추천 리스트를 생성합니다.

이 구조를 통해 RLMRec는 기존의 ID 기반 추천 시스템의 한계를 극복하고, 텍스트 정보를 효과적으로 활용하여 보다 정교하고 정확한 추천을 제공합니다.

 

LLM을 통한 백터 생산?

LLM (Large Language Models)을 통해 표현 벡터를 만드는 과정은 다음과 같이 설명할 수 있습니다. LLM은 자연어 처리에서 뛰어난 능력을 가지고 있으며, 이를 활용하여 텍스트 데이터를 이해하고 요약하는 데 매우 유용합니다. LLM은 텍스트의 의미를 캡처하는 데 강력한 도구이지만, 생성된 텍스트를 고정 길이의 표현 벡터로 변환하는 데도 사용될 수 있습니다.

1. LLM을 통한 텍스트 임베딩 생성

LLM을 통해 표현 벡터를 생성하는 과정은 다음과 같습니다:

A. 텍스트 임베딩 모델 사용

LLM 자체는 자연어를 생성하는 데 사용되지만, LLM의 일부 버전은 텍스트 임베딩을 생성하는 데도 사용할 수 있습니다. 예를 들어, OpenAI의 GPT-3는 텍스트를 입력받아 고정된 길이의 벡터로 변환하는 기능을 제공합니다. 이 벡터는 텍스트의 의미를 캡처하는 데 매우 유용합니다.

B. LLM을 이용한 프로파일 생성

  1. 아이템 프로파일 생성:
    • LLM을 이용하여 아이템의 텍스트 데이터를 요약하고, 이를 고정 길이의 벡터로 변환합니다.
    • 예: P_v = LLM(S_v, Q_v)
      • 여기서 S_v는 시스템 프롬프트로, 아이템 프로파일 생성을 위한 목적과 형식을 정의합니다.
      • Q_v는 아이템의 텍스트 정보입니다.
  2. 사용자 프로파일 생성:
    • LLM을 사용하여 사용자가 상호작용한 아이템들의 프로파일을 기반으로 사용자 프로파일을 생성합니다.
    • 예: P_u = LLM(S_u, Q_u)
      • 여기서 S_u는 시스템 프롬프트로, 사용자 프로파일 생성을 위한 목적과 형식을 정의합니다.
      • Q_u는 사용자가 상호작용한 아이템들의 텍스트 정보입니다.

2. 텍스트 임베딩의 역할

  • 텍스트 임베딩 모델 (예: text-embedding-ada-002):
    • LLM을 활용한 텍스트 임베딩 모델은 텍스트를 고정 길이의 벡터로 변환하여 텍스트의 의미를 캡처합니다.
    • 이 벡터는 사용자와 아이템의 프로파일을 표현하는 데 사용됩니다.
    • 예: s_u = T(P_u), s_v = T(P_v)
      • 여기서 T는 텍스트 임베딩 모델입니다.

3. 협업 필터링 모델과의 통합

  • 협업 필터링 기반 임베딩:
    • 기존의 협업 필터링 모델(예: LightGCN)을 사용하여 사용자 및 아이템의 협업 필터링 기반 임베딩을 생성합니다.
    • 예: e_u, e_v = R(x_u, x_v)
      • 여기서 R은 협업 필터링 모델, x_u와 x_v는 초기 사용자 및 아이템 임베딩입니다.
  • 크로스-뷰 정렬:
    • 텍스트 임베딩과 협업 필터링 임베딩을 정렬하여 두 표현 공간 간의 일관성을 유지합니다.
    • 대조 학습 (Contrastive Learning):
      • 긍정 샘플(positive samples) 쌍을 가깝게 하고, 부정 샘플(negative samples) 쌍을 멀리 떨어뜨립니다.
      • 예: f(s_i, e_i) = exp(sim(σ↓(s_i), e_i))
        • 여기서 sim은 코사인 유사도, σ↓는 다층 퍼셉트론 (MLP)입니다.
    • 생성 학습 (Generative Learning):
      • 협업 필터링 임베딩을 사용하여 마스킹된 텍스트 임베딩을 재구성합니다.
      • 예: f(s_i, e_i) = exp(sim(s_i, σ↑(ê_u)))
        • 여기서 σ↑는 다층 퍼셉트론 (MLP), ê_u는 마스킹된 노드로부터 재구성된 임베딩입니다.

4. 상호 정보 극대화 (Mutual Information Maximization)

  • 상호 정보 극대화:
    • 텍스트 임베딩과 협업 필터링 임베딩 간의 상호 정보를 극대화하여 표현의 질을 향상시킵니다.
    • 예: L_info = -E log[ f(s_i, e_i) / Σ f(s_j, e_i) ]
      • 여기서 L_info는 상호 정보 손실 함수입니다.

요약

LLM은 텍스트의 의미를 깊이 이해하고 이를 고정 길이의 벡터로 변환할 수 있습니다. 이를 통해 생성된 벡터는 사용자와 아이템의 텍스트 데이터를 기반으로 한 프로파일을 표현하며, 협업 필터링 모델과 결합되어 보다 정확한 추천을 가능하게 합니다. 이 과정에서 상호 정보 극대화를 통해 텍스트 임베딩과 협업 필터링 임베딩 간의 정렬을 유지하여 최적의 추천 성능을 달성합니다.

 

추천 시스템은 특히 복잡한 사용자-아이템 관계를 포착하는 데 있어 딥 러닝과 그래프 신경망의 영향을 받아 상당한 발전을 이루었습니다. 그러나 이러한 그래프 기반 추천 시스템은 ID 기반 데이터에 크게 의존하여 사용자 및 아이템과 관련된 귀중한 텍스트 정보를 무시할 가능성이 있어 학습된 표현의 정보가 부족해질 수 있습니다. 또한 암묵적 피드백 데이터의 사용은 잠재적인 노이즈와 편향을 도입하여 사용자 선호도 학습의 효과에 도전 과제를 제기합니다. 전통적인 ID 기반 추천 시스템에 대형 언어 모델(LLM)을 통합하는 것이 주목받고 있지만, 확장성 문제, 텍스트에만 의존하는 한계, 프롬프트 입력 제약 등과 같은 문제를 해결해야 실용적인 추천 시스템에 효과적으로 구현할 수 있습니다. 이러한 문제를 해결하기 위해 우리는 LLM을 활용한 표현 학습으로 기존 추천 시스템을 향상시키기 위한 모델 불가지론적 프레임워크인 RLMRec을 제안합니다. 이는 사용자 행동과 선호의 복잡한 의미적 측면을 포착하기 위해 LLM을 통합한 표현 학습을 제안하는 추천 패러다임을 제안합니다. RLMRec은 보조 텍스트 신호를 통합하고, 사용자/아이템 프로파일링을 위해 LLM을 사용하며, LLM의 의미 공간을 협업 관계 신호와 크로스-뷰 정렬을 통해 정렬합니다. 이 연구는 또한 상호 정보 극대화를 통한 텍스트 신호 통합의 이론적 기반을 제시하여 표현의 품질을 향상시킵니다. 우리의 평가에서는 RLMRec을 최신 추천 모델과 통합하고, 효율성과 노이즈 데이터에 대한 견고성을 분석합니다. 구현 코드는 https://github.com/HKUDS/RLMRec에서 확인할 수 있습니다.

1. 소개

추천 시스템은 사용자 상호작용을 기반으로 개인화된 아이템 추천을 제공하기 위해 진화해왔으며, 딥러닝과 그래프 신경망이 중요한 역할을 하고 있습니다. NGCF와 LightGCN 같은 그래프 기반 추천 시스템은 복잡한 사용자-아이템 관계를 포착하는 데 있어 뛰어난 능력을 보여주며, 이를 통해 최첨단 접근 방식을 구현하고 있습니다. 그러나 이러한 최근의 그래프 기반 추천 시스템은 학습을 위해 ID에 해당하는 정보에 크게 의존한다는 점을 유념해야 합니다. 이 접근법에서 사용되는 훈련 데이터는 매핑된 사용자/아이템 인덱스만으로 구성되며, 그들의 상호작용은 이진 값(상호작용은 1, 비상호작용은 0)으로 표현된 상호작용 매트릭스를 사용하여 나타납니다. 이 데이터 배열은 효과적이었지만, 주로 ID 기반 정보에 의존함으로써 사용자와 아이템에 관련된 풍부한 텍스트 정보와 같은 다른 귀중한 데이터를 간과할 수 있습니다. 이러한 추가 정보의 부재는 학습된 표현의 정보성 감소로 이어질 수 있습니다. 또한 이러한 그래프 기반 추천 시스템의 데이터의 상당 부분은 암묵적 피드백으로 구성되어 있으며, 이는 거짓 부정 또는 편향(예: 오클릭 또는 인기도 편향)으로 인한 노이즈를 초래할 수 있습니다. 따라서 이러한 GNN 기반 모델의 학습된 표현은 데이터의 고유한 품질에 크게 의존하게 되며, 데이터에 노이즈가 포함될 경우 추천 시스템의 효과를 저해하는 유해한 표현으로 이어질 수 있습니다.

최근에는 전통적인 ID 기반 추천 시스템을 향상시키기 위해 다양한 데이터 모달리티를 활용하려는 여러 시도가 있었습니다. 특히 GPT-4와 LLaMA와 같은 대형 언어 모델(LLM)의 등장은 신경 언어 이해 작업에서 인상적인 능력을 보여주었습니다. 이 개발은 연구자들 사이에서 큰 관심을 불러일으켰으며, LLM이 텍스트 콘텐츠를 처리하는 능력을 통해 추천 시스템의 능력을 원래 데이터 범위를 넘어 확장할 수 있는 방법을 적극적으로 탐구하고 있습니다. 이 분야의 현재 연구의 주요 초점은 프롬프트 설계를 통해 추천 접근 방식을 언어 모델의 특성과 정렬하는 것입니다. InstructRec와 같은 방법은 추천 작업을 지침-질문-응답 형식으로 구조화하여 LLM이 추천 목표를 동시에 해결하고 정교하게 설계된 질문에 응답할 수 있도록 합니다. 그러나 이러한 방법들은 여전히 효율성과 정밀성 면에서 기존 추천 시스템에 뒤처지고 있습니다. 이러한 접근 방식과 관련된 고유한 단점은 다음과 같은 주요 측면을 포함합니다:

i) 실용적인 추천 시스템에서의 확장성 문제. 개인화된 사용자 행동 모델링에서 대형 언어 모델(LLM)을 사용하는 것은 상당한 계산 자원을 요구합니다. 사용자 행동 데이터의 규모가 커짐에 따라 계산 요구 사항과 관련된 추론 시간 비용도 증가합니다. 예를 들어, TALLRec에서 개별 사용자에게 추천을 제공하기 위해 LLaMA2-13B가 응답하는 시간은 약 3.6초이며, 입력 크기는 약 800개의 토큰(약 5명의 사용자에 해당)입니다. 그러나 이는 방대한 사용자 기반과 광범위한 아이템 카탈로그를 가진 실용적인 추천 시스템으로 접근 방식을 확장하려고 할 때 상당한 문제를 야기합니다.

ii) 텍스트에만 의존하는 한계. LLM은 환각 문제로 인해 존재하지 않는 아이템에 대한 추천을 포함할 수 있는 텍스트 답변을 생성할 수 있습니다. 이는 생성된 추천의 정확성과 신뢰성을 보장하는 데 어려움을 초래합니다. 또한 프롬프트 입력의 제한된 용량(예: LLaMA의 경우 최대 2048개의 토큰)은 글로벌 사용자 종속성과 함께 포괄적인 협업 신호를 효과적으로 모델링하는 데 장애가 됩니다.

위에서 언급한 한계를 검증하기 위해 우리는 Amazon 데이터셋에서 추천을 위한 재랭킹 작업을 향상시키기 위해 LLM을 직접 사용하는 효과를 평가합니다. 구체적으로, 우리는 LightGCN을 백본 모델로 사용하여 각 사용자에게 50개의 후보 아이템 목록을 가져옵니다. 추천을 더욱 정교하게 하기 위해 각 아이템의 텍스트 정보를 사용자 정의 프롬프트와 통합합니다. 이러한 프롬프트는 ChatGPT(예: gpt-3.5-turbo)로 처리됩니다. 이 작업의 목표는 각 사용자에 대한 아이템 목록을 재정렬하고 가장 관련성이 높은 상위 10~20개의 아이템을 식별하는 것입니다.

그림 1의 결과에서 볼 수 있듯이 ChatGPT로 정제된 추천은 LightGCN이 제공한 원래 결과보다 성능이 떨어집니다. 이는 LLM을 맹목적으로 사용하여 추천의 재랭킹 과정을 개선할 때의 한계를 나타냅니다. 이러한 한계는 다음 세 가지 요인에 기인할 수 있습니다: i) 후보 세트에 없는 아이템을 제안하는 LLM의 환각 문제; ii) 토큰 제한으로 인해 포괄적인 글로벌 텍스트 기반 협업 관계 입력의 부족; iii) 또한 LLM을 사용한 재랭킹 과정이 완료되는 데 여러 시간이 걸리며, 이는 실제 추천 시나리오에서 대규모 데이터를 처리할 때 도전 과제를 야기합니다. 페이지 제한으로 인해 환각 현상을 입증하기 위해 부록에 자세한 분석과 예를 제공합니다.

기여

위에서 언급한 한계를 고려하여 우리는 LLM의 강력한 기능을 활용하여 기존 추천 시스템을 원활하게 향상시키고자 합니다. 이를 위해 우리는 RLMRec(Representation Learning with Large Language Models for Recommendation)이라는 모델 불가지론적 프레임워크를 제안합니다. RLMRec의 핵심 아이디어는 표현 학습을 ID 기반 추천 시스템과 LLM 간의 다리로 활용하는 것입니다. 우리의 새로운 추천 패러다임은 기존 추천 시스템의 정확성과 효율성을 유지하면서 LLM의 강력한 텍스트 이해 능력을 활용하여 사용자 행동과 선호의 복잡한 의미적 측면을 이해하는 것입니다. 먼저, 우리는 표현 학습을 위해 보조 텍스트 신호를 통합하는 이점을 모델링하여 이론적 기반을 마련합니다. 이는 텍스트 신호를 의미 있는 표현으로 변환하고 일반 추천 모델 내에서 상호 정보를 극대화하기 위한 이론적 기반을 확립하는 것을 포함합니다. 또한, 우리는 LLM을 활용하여 사용자/아이템 프로파일링 패러다임을 개발하여 LLM의 글로벌 지식 공간에서 종합적인 의미 이해를 통합함으로써 표현의 표현력을 향상시킵니다. 더욱이, 우리는 LLM의 의미 공간과 협업 관계 신호의 표현 공간을 정렬하기 위해 크로스-뷰 정렬 프레임워크를 제안합니다. 이 정렬은 대조 및 생성 모델링에서 텍스트와 협업 관계 임베딩이 잘 정렬되는 공통 의미 하위 공간을 찾을 수 있도록 상호 정보 극대화 체계를 통해 달성됩니다. 요약하면, 우리의 주요 기여는 다음과 같이 요약될 수 있습니다:

  • 이 연구는 LLM을 활용하고 그들의 의미 공간을 협업 관계 모델링과 정렬하여 기존 추천 시스템의 추천 성능을 향상시키는 잠재력을 탐구하는 것을 목표로 합니다.
  • 우리는 이론적 발견에 의해 안내된 RLMRec이라는 모델 불가지론적 표현 학습 프레임워크를 제안합니다. 이 프레임워크는 대조 또는 생성 모델링 기술을 활용하여 학습된 표현의 품질을 향상시킵니다.
  • 우리는 텍스트 신호를 통합하여 표현 학습을 향상시키는 효과를 입증하는 이론적 기반을 확립합니다. 상호 정보 극대화를 통해 텍스트 신호가 표현 품질을 어떻게 향상시킬 수 있는지 보여줍니다.
  • 우리는 RLMRec을 다양한 최신 추천 모델과 통합하고 우리의 방법의 효과를 검증합니다. 또한, 우리는 프레임워크의 노이즈 및 불완전한 데이터에 대한 견고성을 분석하여 실제 문제를 처리할 수 있는 능력을 보여줍니다.

 

2. 관련 연구

GNN을 활용한 협업 필터링

협업 필터링(CF)은 추천 시스템의 근본적인 기법으로, 광범위하게 연구되어 왔습니다. 새로운 방향으로는 과거의 사용자-아이템 상호작용을 사용하여 이분 그래프를 만들고 그래프 신경망(GNN)을 사용하여 고차원 협업 관계를 포착하는 것입니다. NGCF, GCCF, LightGCN과 같은 그래프 기반 방법은 최첨단 성능을 입증하여 추천 효과를 향상시키고 있습니다. 그러나 암묵적 피드백 데이터의 희소성과 노이즈는 그래프 기반 방법에 도전 과제를 제기합니다. 이를 해결하기 위해 연구자들은 추천의 견고성을 향상시키기 위한 보조 학습 목표로 자기 지도 학습(SSL) 기법을 탐구했습니다. 다양한 SSL 기법 중에서 대조 학습이 협업 필터링 모델에서 두드러진 솔루션으로 떠올랐습니다. SGL, SimGCL, NCL, LightGCL과 같은 방법은 대조 데이터 증강을 활용하여 추천 성능을 향상시킵니다. 이 연구에서는 LLM을 기존 CF 모델과 통합하여 LLM의 지식과 추론 능력을 협업 관계 학습과 효과적으로 정렬하여 추천 성능을 향상시키는 한 걸음 더 나아갑니다.

추천을 위한 대형 언어 모델

추천 시스템을 위해 LLM을 활용하는 것에 대한 관심이 높아지고 있습니다. 여러 연구에서는 LLM을 추론 모델로 활용하여 추천 작업과 정렬되는 프롬프트를 설계했습니다. 예를 들어, P5는 사용자 상호작용 데이터를 아이템 인덱스를 사용하여 텍스트 프롬프트로 변환한 후 이를 언어 모델 훈련에 사용합니다. Chat-REC은 사용자 프로필과 상호작용을 프롬프트로 변환하여 LLM이 추천을 생성하도록 하는 대화형 추천 시스템을 구축합니다. InstructRec와 TALLRec은 추천 작업을 정의하고 LLM을 조정하여 이러한 지침에 맞춘 추천을 생성하는 지침 설계를 사용합니다. 그러나 LLM을 직접 추천 작업에 사용하는 것은 높은 계산 비용과 느린 추론 시간과 같은 문제에 직면합니다. 이를 해결하기 위해 우리의 접근 방식은 상호 정보 극대화를 채택하여 LLM의 지식을 협업 관계 모델링과 정렬하여 확장 가능하고 효과적인 추천을 가능하게 합니다.

3. 방법론

3.1 RLMRec의 이론적 기초

협업 필터링: 우리 추천 시나리오에서는 사용자 집합 U = {u1, ..., uI}와 아이템 집합 V = {v1, ..., vJ}가 있습니다. 관찰된 사용자-아이템 상호작용은 X로 표현됩니다. 학습 기반 추천 시스템에서는 각 사용자와 아이템에 초기 임베딩 x_u와 x_v가 할당됩니다. 목표는 추천 모델 (예: e_u, e_v = R(x_u, x_v))을 통해 사용자 및 아이템 표현 e_u, e_v를 학습하여 아래에 나타난 후행 분포를 최대화하는 것입니다:

p(e∣X)∝p(X∣e)p(e)

실제 추천 시나리오에서 관찰된 사용자-아이템 상호작용 X는 종종 거짓 긍정(예: 오클릭 또는 인기도 편향의 영향을 받은 상호작용) 및 거짓 부정(예: 사용자가 보지 못한 관심 있는 아이템과의 상호작용 없음) 등의 노이즈를 포함합니다. 결과적으로, 학습된 표현 e는 이러한 노이즈에 영향을 받을 수 있으며, 이는 추천 정확도에 부정적인 영향을 미칩니다. 이 연구에서는 추천에 본질적으로 유익한 숨겨진 사전 신념 z를 도입합니다. 이 사전 신념은 X에서 실제 긍정 샘플을 식별하는 데 도움을 줍니다. 따라서 표현 e의 생성에는 유리한 사전 신념 z와 학습 과정에서 발생하는 불가피한 노이즈의 조합이 포함됩니다.

텍스트를 활용한 사용자 선호 학습: 표현에 대한 관련 없는 신호의 영향을 완화하기 위해 보조적인 정보 신호를 통합하는 것이 필요합니다. 한 가지 접근법은 사용자와 아이템 프로파일과 같은 텍스트 정보를 도입하는 것입니다. 이러한 프로파일은 사용자 선호 학습에 대한 통찰력을 제공합니다. 이러한 프로파일은 언어 모델을 사용하여 표현 s ∈ R^d_s로 인코딩되어 사용자 선호의 의미적 측면을 효과적으로 캡처할 수 있습니다. 중요하게도, s와 e는 모두 사용자-아이템 상호작용과 관련된 측면에 대한 공유 정보를 캡처합니다. 이 공유 정보는 추천에 유익한 측면을 포함함을 나타내므로 중요합니다. 이는 사전 신념 z와 일치합니다.

협업 기반 표현 e와 텍스트 기반 표현 s를 통해, 두 표현 모두 z에서 생성된 추천에 유익한 정보를 포함하므로, 우리의 목표는 조건부 확률을 최대화하여 e*로 표시된 e의 최적 값을 학습하는 것입니다:

e∗=arg⁡max⁡eEp(e,s)[p(z,s∣e)]

조건부 확률을 최대화하는 근본적인 직관은 추천 모델에서 학습 가능한 표현 e가 사전 신념 z와 의미적 표현 s와의 공유 정보에서 생성된 순수한 정보를 포함하도록 하는 것입니다. 이렇게 함으로써 추천에 대한 학습된 표현 e의 관련성과 이점이 향상됩니다.

정리 1: 숨겨진 사전 신념 z가 주어진 경우 후행 확률 Ep(e,s)[p(z,s∣e)]를 최대화하는 것은 CF 기반 관계 표현 e와 LLM 기반 의미 표현 s 간의 상호 정보 I(e;s)를 최대화하는 것과 같습니다.

증명: 사용자와 아이템의 프로파일이 고정되어 있으므로, 학습 과정 동안 확률 p(s)p는 일정하게 유지됩니다. 따라서 다음과 같이 유도할 수 있습니다:

Ep(e,s)[p(z,se)]Ep(e,s)log[zp(z,se)dz/ p(s) ]

=Ep(e,s)log[zp(z,es)dz/ p(e) ]

=Ep(e,s)log[p(es)/ p(e) ]=I(e,s)

프로파일 생성

아이템 프로파일 생성:

  • 사용자와 아이템의 프로파일을 생성하여 사용자 및 아이템의 상호작용 선호도를 캡처합니다.
  • 예: 아이스크림의 제목과 설명, 사용자 피드백 등을 포함하는 프로파일 생성.

사용자 프로파일 생성:

  • 사용자가 상호작용한 아이템의 프로파일을 기반으로 사용자 프로파일을 생성합니다.
  • 예: 사용자가 좋아하는 아이템, 그 이유 등을 포함하는 프로파일 생성.

대조 및 생성 정렬

  • 대조 정렬: 양방향 정렬을 통해 협업 데이터와 의미 데이터 간의 상호 정보를 극대화합니다.
  • 생성 정렬: 협업 데이터를 사용하여 의미 표현을 재구성하는 방식으로 정렬합니다.

상호 정보 최적화

  • 상호 정보를 극대화하여 학습된 표현의 품질을 높입니다.
  • 예: 주어진 siei간의 밀도 비율을 최대화하여 상호 정보를 최적화합니다.

이 접근 방식을 통해 우리는 표현의 노이즈 효과를 완화하고, 사용자와 아이템의 상호작용 선호도를 효과적으로 캡처하는 방법을 제시합니다.

3.2 사용자/아이템 프로파일링 패러다임

이전 도출에서 언급한 바와 같이, 사용자와 아이템에 대한 텍스트 설명, 즉 프로파일을 확보하는 것이 중요합니다. 이러한 프로파일은 학습된 추천 시스템의 표현에서 노이즈의 영향을 완화하고 사용자 및 아이템의 상호작용 선호도를 의미적으로 이해하는 데 중요한 역할을 합니다. 이상적으로, 사용자 및 아이템 프로파일은 다음과 같은 특성을 가져야 합니다:

  • 사용자 프로파일: 사용자가 선호하는 특정 유형의 아이템을 효과적으로 요약하여 개인화된 취향과 선호도를 포괄적으로 표현해야 합니다.
  • 아이템 프로파일: 해당 아이템이 끌어들일 가능성이 있는 특정 유형의 사용자를 명확하게 표현하여 아이템의 특성과 그 사용자의 선호 및 관심과 일치하는 품질을 명확하게 나타내야 합니다.

일부 경우, 원본 데이터에는 사용자 및 아이템과 관련된 텍스트 속성이 포함될 수 있습니다. 예를 들어, Yelp 데이터셋에서는 사용자가 방문한 비즈니스에 대한 리뷰를 제공하고, 비즈니스에는 위치 및 카테고리와 같은 속성이 있습니다. 그러나 이러한 텍스트 데이터는 종종 불필요한 노이즈를 포함하고 있어 일반적인 문제를 초래합니다:

  1. 누락된 속성: 특정 아이템이나 사용자의 일부 속성이 누락될 수 있습니다.
  2. 노이즈가 있는 텍스트 데이터: 텍스트 자체가 사용자의 선호와 관련이 없는 많은 노이즈로 오염될 수 있습니다. 예를 들어, Steam 데이터셋에서 게임에 대한 사용자 리뷰는 많은 특수 기호나 관련 없는 정보를 포함할 수 있습니다. 이러한 문제로 인해 텍스트에서 유용한 사용자 및 아이템 프로파일을 추출하기가 어렵습니다. 그 결과, 기존 모델은 텍스트 데이터에 존재하는 의미 정보를 효과적으로 활용하지 않고 저노이즈 속성을 원핫 인코딩으로 변환하는 경우가 많습니다.

다행히도, 최근 대형 언어 모델(LLM)의 발전은 텍스트 디노이징 및 요약과 같은 다양한 자연어 처리 작업을 해결할 수 있는 놀라운 텍스트 처리 능력을 발휘하게 했습니다. 이 중요한 발전은 데이터셋에 내재된 노이즈가 있는 텍스트 기능에서 사용자 및 아이템 프로파일을 생성할 수 있는 새로운 가능성을 열어줍니다. LLM의 엄청난 잠재력을 활용하여 협업 정보를 활용한 프로파일 생성 패러다임을 제안합니다. 데이터셋에는 사용자 속성에 비해 아이템 속성에 대한 텍스트 설명이 더 많이 포함되는 경우가 많다는 점을 고려하여, 아래와 같이 아이템-사용자 관점을 채택합니다.

3.2.1 추론을 통한 프로파일 생성

최근 연구는 LLM에 추론 과정을 통합하여 환각을 완화하고 생성된 출력의 품질을 향상시키는 데 효과적임을 입증했습니다. 이러한 발견을 바탕으로, 우리는 LLM에 제공되는 입력의 일부로 시스템 프롬프트 Su/v를 신중하게 설계했습니다. 목표는 사용자 u에 대한 사용자 프로파일 또는 아이템 v에 대한 아이템 프로파일을 생성하는 기능을 명확히 정의하고 입력-출력 콘텐츠와 원하는 출력 형식을 정확하게 지정하는 것입니다. 특히, 생성된 출력의 필수적인 부분으로 추론 과정을 포함하도록 명시적으로 강조합니다. 이 시스템 프롬프트를 사용자/아이템 프로파일 생성 프롬프트 Qu 및 Qv와 결합하여 LLM을 활용해 정확한 프로파일을 생성할 수 있습니다. 구체적인 과정은 다음과 같습니다: Pu=LLMs(Su,Qu),Pv=LLMs(Sv,Qv)P_u = LLMs(S_u, Q_u), P_v = LLMs(S_v, Q_v)

3.2.2 아이템 프롬프트 구성

아이템 v ∈ V의 텍스트 정보를 네 가지 유형으로 분류합니다: 제목 α, 원본 설명 β, 데이터셋 특정 속성 γ = {γ1, ..., γ|γ|}, 그리고 n개의 사용자 리뷰 모음 r = {r1, ..., rn}. 이러한 카테고리를 기반으로 아이템 프로파일 생성을 위한 입력 프롬프트 Qv의 구성을 다음과 같이 공식화할 수 있습니다:

우리 접근 방식에서는 각 아이템에 대해 다양한 텍스트 특징을 단일 문자열로 결합하는 fv(·) 함수를 사용합니다. 원본 설명 β가 누락된 경우, 리뷰의 하위 집합을 무작위로 샘플링하여 속성과 결합하여 입력으로 사용합니다. 아이템 설명이나 사용자 리뷰를 통합함으로써, 우리의 프롬프트는 대형 언어 모델에 정확한 정보를 제공하여 생성된 아이템 프로파일이 매력적인 특성을 정확하게 반영하도록 합니다.

3.2.3 사용자 프롬프트 구성

사용자 u의 프로파일을 생성하기 위해 협업 정보를 활용합니다. 여기서는 아이템 프로파일을 미리 생성한 상태라고 가정합니다. 구체적으로, 사용자가 상호작용한 아이템을 Iu로 고려하고, Iu의 하위 집합 Îu를 균일하게 샘플링합니다. Îu에 있는 각 아이템 v에 대해, 그 텍스트 속성을 cv = [α, Pv, rv_u]로 연결합니다. 여기서 rv_u는 사용자 u가 제공한 리뷰를 나타냅니다. 사용자 프로파일 생성을 위한 입력 프롬프트 Qu는 다음과 같이 정의할 수 있습니다: \[ Q_u = f_u({c_v | v ∈ Î_u}) \] fu(·) 함수는 텍스트 콘텐츠를 일관된 문자열로 구성하는 fv(·) 함수와 유사한 목적을 수행합니다. 각 텍스트 속성 cv에는 사용자 리뷰가 포함되어 있어 사용자의 진정한 의견을 진실하게 반영합니다. 이러한 사용자 프롬프트 구성은 사용자의 실제 선호도에 대한 귀중한 통찰력을 제공합니다. 공간 제약으로 인해, S, Q 및 fu/v(·)의 세부 설계와 샘플 예제는 부록 A.2에 포함되어 있습니다.

 

3.3 상호 정보 극대화를 위한 밀도 비율 모델링

이 절에서는 상호 정보 I(si,ei)를 최대화하는 것을 목표로 하여 밀도 비율 f(si,ei)를 모델링하는 과정을 설명합니다. 먼저, 우리는 이전에 사용자/아이템 프로파일 Pu/Pv를 생성하여 이들의 상호작용 선호도를 나타낸 바 있습니다. 따라서, 이러한 프로파일을 기반으로 의미적 표현 을 다음과 같이 인코딩하는 것이 논리적입니다:

su=T(Pu), sv = T(Pv)

여기서 T(⋅)는 다양한 텍스트 입력을 고정 길이 벡터로 효과적으로 변환하여 고유한 의미와 문맥 정보를 유지하는 텍스트 임베딩 모델을 나타냅니다.

연구에 따르면, 밀도 비율 f(si,ei)siei사이의 유사성을 포착하는 긍정적인 실수 값의 점수 측정 함수로 해석될 수 있습니다. 밀도 비율의 더 정확한 모델링은 CF 측의 합리적 표현과 LLM이 향상시킨 의미적 표현 사이의 정렬에 긍정적인 영향을 미쳐 표현 학습에서 노이즈 신호의 영향을 완화하는 데 도움이 됩니다. 이러한 맥락에서, 우리는 이러한 정렬을 달성하기 위해 두 가지 유형의 모델링 접근 방식을 제안합니다. 첫 번째 접근 방식은 대조 모델링으로, 이는 쌍방향으로 다른 뷰를 효과적으로 정렬하는 것으로 입증되었습니다. 두 번째 접근 방식은 부분적으로 마스킹된 입력을 데이터 자체에서 재구성하는 자가 지도 메커니즘으로 널리 사용되는 마스크 재구성 생성 모델링입니다. CF 측 표현을 사용하여 의미 표현을 재구성함으로써, 우리는 이 두 가지 형태의 정보를 효과적으로 정렬할 수 있습니다.

3.3.1 대조 정렬

그림 3(b)에서 볼 수 있듯이, 우리는 밀도 비율 f(si,ei)의 구체적인 구현을 대조 정렬로 표시합니다. f(si,ei)=exp⁡(sim(σ↓(si),ei))여기서 sim(⋅)은 코사인 유사도를 나타내며, σ↓는 의미적 표현 sie의 특징 공간으로 매핑하는 다층 퍼셉트론을 나타냅니다. 우리의 대조 정렬에서는 eisi를 긍정적 샘플 쌍으로 간주합니다. 학습 과정에서 이러한 쌍은 그들의 표현을 정렬하기 위해 서로 가까워집니다. 구체적인 구현에서는 긍정적 샘플 쌍을 배치 내에서 더 가깝게 가져오고, 나머지 샘플을 부정적으로 고려하는 것을 목표로 합니다.

3.3.2 생성 정렬

마스크드 오토인코더(MAE)에 관한 최근 연구에서 영감을 받아, 우리는 MAE 내에서 밀도 비율에 대한 추가 모델링 접근 방식을 제안합니다.

f(si,ei)=exp⁡(sim(si,σ↑(eˆu))) w.r.t eˆi=R({x}∖xi). 

우리는 σ↑를 표현을 의미적 특징 공간으로 매핑하는 다층 퍼셉트론 모델로 사용합니다. x∖는 마스킹이 적용된 ii번째 샘플의 초기 임베딩을 나타냅니다. 생성 과정은 단방향 재구성 접근 방식을 따르며, 마스킹된 샘플에 대한 의미적 표현을 재구성하는 데 중점을 둡니다. 구체적으로, 마스킹 작업은 초기 임베딩을 지정된 마스크 토큰(예: [MASK])으로 대체하며, 무작위로 선택된 사용자/아이템 하위 집합을 마스킹하고 이후 재구성합니다. 이를 통해 의미적 특징 공간 내에서 재구성 능력을 탐색할 수 있습니다.

대조 및 생성 정렬 방법을 통해, 우리는 LLM의 지식을 사용자 선호도 이해 영역과 효과적으로 정렬합니다. 이는 ID 기반 협업 관계 신호와 텍스트 기반 행동 의미를 결합하여 달성됩니다. 우리는 각각의 제안된 모델링 접근 방식을 RLMRec-Con 및 RLMRec-Gen으로 명명했습니다. 실세계 데이터에서 수행된 실험에서는 다양한 작업에서 이 두 모델의 성능을 종합적으로 평가하며, 각 모델의 고유한 장단점을 보여줍니다.

 

3.4 모델 불가지론적 학습

지금까지 우리의 초점은 CF 측의 관계 표현 와 LLM 측의 의미 표현 s를 최적화하는 데 있었습니다. 사용자/아이템에 대한 표현 학습을 수행할 수 있는 모델은 이전에 설명한 최적화 과정을 거칠 수 있습니다. 따라서 우리의 접근 방식은 모델 불가지론적이며 기존 협업 필터링 추천 시스템을 원활하게 향상시킬 수 있습니다. 추천 모델 R의 최적화 목표를 LR로 표시하면, 우리의 전체 최적화 함수 L은 다음과 같이 공식화될 수 있습니다:

L=LR+Linfo w.r.t Linfo=−Elog⁡[f(si,ei)/∑sj∈Sf(sj,ei)]

전체 최적화 함수 을 최소화하는 것은 앞서 언급한 상호 정보를 극대화하는 것에 해당합니다

 

평가

이 섹션에서는 여러 데이터셋을 대상으로 RLMRec의 실험적 평가를 제시하며 다음 연구 질문을 다룹니다:

  • RQ1: RLMRec이 기존 최첨단 추천 시스템을 다양한 실험 설정에서 개선할 수 있는가?
  • RQ2: LLM이 향상시킨 의미 표현이 추천 성능 향상에 기여하는가?
  • RQ3: 제안된 프레임워크가 크로스-뷰 의미 정렬을 통해 노이즈 데이터를 효과적으로 처리할 수 있는가?
  • RQ4: 제안된 모델이 추천 시스템 성능을 향상시키기 위한 사전 학습 프레임워크로서 잠재력이 있는가?
  • RQ5: RLMRec의 학습 효율성은 어떤가?

4.1 실험 설정

데이터셋: Amazon-book, Yelp, Steam 세 가지 공공 데이터셋을 사용하여 RLMRec을 평가합니다. 데이터 전처리 과정에서 Amazon-book과 Yelp 데이터의 평점이 3 미만인 상호작용을 필터링하고, Steam 데이터는 평점이 없기 때문에 필터링하지 않습니다. 각 데이터셋을 학습, 검증, 테스트 세트로 3:1:1 비율로 나누었습니다.

평가 프로토콜 및 지표: 모든 항목에 대해 all-rank 프로토콜을 채택하여 편향을 줄이고 포괄적인 평가를 보장합니다. 두 가지 널리 사용되는 랭킹 기반 지표인 Recall@N과 NDCG@N을 사용하여 모델의 효과를 측정합니다.

기본 모델: RLMRec의 효과를 평가하기 위해 최신 추천 시스템과 통합합니다. SSLRec 기반의 여러 모델을 사용합니다:

  • GCCF: GNN에서 비선형 연산의 역할을 재평가하여 그래프 기반 추천 디자인을 단순화합니다.
  • LightGCN: 그래프 메시지 전달의 불필요한 신경 모듈을 간소화하여 가벼운 추천 시스템을 만듭니다.
  • SGL: 대조 학습을 위해 다양한 관점을 생성하기 위해 노드/엣지 드롭아웃을 사용합니다.
  • SimGCL: 증강 없는 뷰 생성 기법을 도입하여 추천 성능을 향상시킵니다.
  • DCCF: 해체된 대조 학습을 사용하여 추천 목적을 위한 의도별 관계를 포착합니다.
  • AutoCF: 추천을 위한 데이터 증강 과정을 자동화하기 위해 자체 지도 마스크드 오토인코더를 사용합니다.

구현 세부 사항: 모든 기본 모델에 대해 표현 차원(x 및 e)을 32로 설정합니다. 각 모델의 하이퍼파라미터는 그리드 탐색을 통해 결정합니다. 사용자와 아이템 프로파일을 생성하기 위해 OpenAI의 ChatGPT 모델(gpt-3.5-turbo)을 사용합니다. 텍스트 임베딩을 생성하기 위해 text-embedding-ada-002 모델을 사용합니다. 모든 방법은 고정 배치 크기 4096과 학습률 1e-3로 Adam 최적화 알고리즘을 사용하여 학습합니다. 검증 세트에서 모델의 성능에 따라 조기 종료 기술을 채택합니다.

4.2 성능 비교 (RQ1)

모델 불가지론적 성능 향상: RLMRec의 추천 성능 향상을 입증하기 위해 이를 여섯 가지 최첨단 협업 필터링 모델에 통합합니다. 5개의 무작위 초기화로 실험을 수행하고 평균 결과를 보고합니다. 결과는 RLMRec이 백본 추천 모델과 통합될 때 일관되게 성능이 향상됨을 보여줍니다. 이는 LLM이 향상시킨 정확한 사용자/아이템 프로파일링과 크로스-뷰 상호 정보 극대화가 추천 기능에서 노이즈를 효과적으로 필터링함으로써 성능을 향상시킨다는 증거입니다.

LLM이 향상된 접근법과의 비교 우위: RLMRec의 효과를 KAR와 비교 평가합니다. KAR는 CTR 작업을 위한 사용자 선호 학습을 향상시키기 위해 텍스트 사용자/아이템 설명을 생성하는 LLM 기반 접근법입니다. 동일한 의미 표현을 사용하여 두 가지 백본 모델(LightGCN 및 SGL)로 실험합니다. 결과는 KAR가 사용자 행동 표현과 텍스트 지식을 효과적으로 정렬하지 못해 노이즈에 더 취약하다는 것을 보여줍니다.

4.3 소거 연구 (RQ2)

의미 표현 통합의 영향: 의미 표현을 통합한 성능을 평가하기 위해 획득한 의미 표현을 섞어서 협업 관계 표현 및 LLM의 지식과의 불일치를 만듭니다. 기본 의미 인코딩 모델(text-embedding-ada-002)과 Contriever, Instructor와 같은 고급 모델을 실험합니다. LightGCN, GCCF, SimGCL, DCCF 네 가지 백본 방법에서 RLMRec을 평가합니다. 결과는 의미 지식과 협업 관계의 정확한 정렬이 성능 향상에 중요함을 나타냅니다.

4.4 RLMRec의 심층 분석 (RQ3 – RQ5)

노이즈 데이터에 대한 성능 (RQ3): 원래 훈련 데이터에 존재하지 않는 상호작용을 추가하여 데이터 노이즈에 대한 RLMRec의 견고성을 평가합니다. LightGCN과 RLMRec-Con/Gen을 비교하여 성능을 평가합니다. RLMRec-Con과 RLMRec-Gen은 모든 노이즈 수준에서 일관되게 성능이 향상됨을 보여줍니다. 이는 의미 정보를 통합하고 상호 정보를 활용하여 불필요한 데이터를 필터링하는 장점을 강조합니다.

사전 학습 시나리오에서의 성능 (RQ4): 추천 시스템 성능 향상을 위한 사전 학습 기법으로서의 잠재력을 탐구합니다. Yelp 데이터셋을 사용하여 2012년에서 2017년까지의 데이터를 사전 학습에 사용하고, 2018년에서 2019년까지의 데이터를 다운스트림 데이터셋으로 나눕니다. RLMRec-Con과 RLMRec-Gen은 기본 모델 단독 사전 학습에 비해 더 나은 사전 학습 이점을 제공합니다.

학습 효율성 분석 (RQ5): RLMRec을 사용하는 시간 복잡성을 분석합니다. 이론적 시간 복잡성은 σ↑σ↓\sigma↓ 모두 O(N×ds×de)입니다. RLMRec-Con의 손실 계산은 추가적으로 O(N2×d)의 복잡성을 도입합니다. RLMRec-Gen의 시간 복잡성은 O(M×d+M×N×d)이며, 여기서 MM은 마스킹된 노드의 수를 나타냅니다. 결과는 RLMRec-Gen의 시간 비용이 일관되게 RLMRec-Con보다 낮음을 보여줍니다.

4.5 사례 연구

LLM이 향상된 의미를 통합하여 직접적인 메시지 전달을 통해 쉽게 포착할 수 없는 전역 사용자 관계를 포착하는 통합을 탐구합니다. 사례 연구는 RLMRec이 ID 기반 추천 기술을 넘어 전역 협업 관계를 포착한다는 것을 보여줍니다.

결론

이 논문은 추천 시스템의 표현 성능을 향상시키기 위해 대형 언어 모델(LLM)을 활용하는 모델 불가지론적 프레임워크인 RLMRec을 제안합니다. 협업 프로파일 생성 패러다임과 추론 기반 시스템 프롬프트를 소개하여 생성된 출력에 추론 과정을 포함합니다. RLMRec은 CF 측 관계 임베딩과 LLM 측 의미 표현을 정렬하여 기능 노이즈를 효과적으로 줄입니다. 프레임워크는 일반 추천 시스템과 LLM의 강점을 결합하며, 견고한 이론적 보장을 통해 실세계 데이터셋에서 광범위하게 평가됩니다. 미래 연구에서는 더 통찰력 있는 설명을 제공하여 추천 시스템에서 LLM 기반 추론 결과를 향상시키는 데 중점을 둘 것입니다.

 
 
728x90