실험날짜 : 23-05-02

 

개요

요즘 같은 세상에 개발을 할 줄 아는데 gpt계열의 인공지능으로 뭐하나 만들지 않으면 손해다 싶어서 뭔가 하나 만들어보려고 이것저것 시도중에 대화형으로 mbti성격검사를 만들면 어떨까 생각이 들었다.

 

프로토타이핑

일단 챗봇이 mbti의 각 성질을 자연스럽게 파악할 수 있는 상황을 만들고 사용자는 ai와 롤플레잉을 벌인다.

그리고 그 롤플레잉한 대화를 바탕으로 mbit의 8개의 특징을 스코어링하고 왜 그렇게 분석했는지 까지 추출하여 제공하는 서비스를 생각해 봤다.

 

가능성 실험

우선 이전의 많은 논문들이 증명해 왔듯이 불가능할 것 이라고 보여지진 않는다.

하지만 구현(값싸게)할 수 있는 수준인지는 확인 해 볼 필요가 있어보이기도 하고, 성격을 판단한다는게 gpt류 api에서 제한을 받을 수도 있어보이기 때문이다.

 

서비스로 만들게 된다면 아마 openai의 api davinci-003나 koalpaka를 쓰게되겠지만 일단. chatgpt - gpt3으로 윤곽을 잡아봤다.

생각보다 잘 작동하는 것 같다. 만들어볼만 한 것 같아서 다음엔 api로도 되는지 해봐야겠다.

'B급 개발물' 카테고리의 다른 글

AI Dungeon 나도 한번 만들어보자  (0) 2022.07.20
작성중입니다.

Abstract

언어 모델을 이용하여 Agent를 설정된 집단과 환경에서 인간과 유사하게 행동할 수 있도록 하는 simulation을 구현한 연구에 대한 논문이다.

  • Agent는 큰 언어모델(chatgpt)에 Agent의 경험을 기억할 수 있고,
  • 그 기억을 높은 수준으로 반영하여 반응을 생성하며,
  • 그 데이터들을 동적으로 행동을 계획하기 위해 불러올 수 있다.

Keywords

  • Human-AI Interaction
  • Agents
  • Generative AI
  • Large language models

Introduction

인공 사회를 만드는데는 “The Sims”(게임)에서 영감을 받아서 가상 환경을 설계했다.

환경에 던져진 Agent들은 과거의 경험과 괴리가 없도록 일관적으로 행동했고,

  • 어떻게 어려운 대인관계의 상황을 해결하는지를 학습했으며
  • 사회 과학의 이론을 테스트 했으며
  • 이론과 사용성 테스트를 위해 위한인간의 행동 프로세스를 만들었다.

하지만 인간행동은 방대하며 복잡하기에, 큰 언어모델로 single time point에서 인간행동 시뮬레이션이 가능하더라도, 긴 텀동안 일관성 있는 agent가 새로운 상호작용, 갈등, 이벤트로 인해 끊임없이 늘어나는 정보를 기억하는 아키택처가 더 적합하다.

3. Generative Agent Behavior And Interaction

(작성중)

  1. Inter-Agent Communication
  2. User Controls
  3. Information Diffusion
  4. Relationship memory
  5. Coordination

4. Generative Agent Architecture

generative agent는 현재 상태를 가지고 가지고 있고, 과거의 경험을 입력으로 받으며 행동을 출력해낸다. 해당 구조는 language모델의 상태와 정보등을 합성하여 출력을 만든다. 이러한 아키텍처는 agent의 출력이 과거 경험에 기반하게 하고, 중요한 추론을 만들어내며, 긴 텀동안의 통일성을 유지시켜줄 수 있도록 제어하는 역할을 한다.

4.1 Memory and Retrieval

Challenge

Agent가 추론을 하게 하기 위해서 과거 경험 데이터 뿐만 아니라 현재 데이터도 넣어줘야 할텐데 어떻게 prompt를 설계해야할까? 제한된 context window 어떻게 이 많은 요소를 넣어야 하는가.

 

Approach

agent의 정보를 메모리스트림에 포괄적으로 저장하여 이후 관찰하기 쉽게 한다. 추가로 저장되는 정보는 다음과 같다.

  • natural language description
  • timestamp / most recent access timestamp

Recency

최신 정보에 높은 점수를 부여했다. 점수는 정보에 생성, 접근한 timestamp를 이용했으며, 시간에 따른 decay(0.99)를 부여했다. decay는 exponential decay function을 이용.

 

Importance

중요도를 평가하는 다양한 방법이 있겠지만, 해당 논문에서는 언어모델을 사용하여 사진과 같은 프롬프트로 중요도를 데이터 스트림에 저장하게 했다.

 

Relevance

현재 상황과 관련있는 정보에 높은 점수를 부여했다. 예를들면 화학시험에 대한 논의를 하는 상황일때, “오늘 먹은 아침”보다 “학교에서 공부한 것”이 더 높은 점수를 얻는 것이다. 해당 논문에서는 데이터셋을 벡터화하여 cosine 유사도로 관련성을 평가했다.

 

Combination

각 부분에 weighted combination을 하여 계산 하게 했으며, 해당논문에선 weight를 모두 1로 두어서 그림과 같은 형태가 된다.

4.2 Reflection

Challenge

날것의 관찰 데이터만 가진 agent는 일반화하기와, 관련성 만들기를 하기에 혼란을 겪는다. 그렇기에 더 바람직한 응답을 하기 위해 agent는 시간이 지남에 따라 더 높은 수준의 reflection을 만들어 내는 memory의 일반화가 요구된다.

 

Approach

reflection이라고 부르는 두번째 타입의 메모리를 만듬. 이는 agent가 생성하는 더 높은 수준의 추상인 생각이다. 이전의 이벤트에서 쌓인 importance score의 합계가 임계값을 넘을 경우 reflection을 수행한다. 해당 논문의 agent들은 2~3회 reflection을 수행했다.

논문의 내용이 단번에 이해하기 어려웠어서 간단하게 설명하면 다음 과정을 거친다.

  1. 최근 쌓인 기억들의 중요도합이 임계치를 넘었을 경우 발동
  2. 최근 100개의 기억을 입력으로 넣어서 해당 기억으로 대답이 가능한 매우 높은 수준의 질문을 3개 생성해달라고 언어모델에 입력.
  3. 생성된 질문을 이용해서 나온 3개의 질문을 입력으로 추론 할 수 있는 높은 수준의 통찰 5가지를 생성하고, 어떤 문장에서 얻은 통찰인지도 같이 출력해 달라고 언어모델에 입력.
  4. 해당 통찰이 담긴 문장을 통해 Reflection Tree 가 생성됨. / 해당 통찰이 담긴 문장은 다시 Reflection이벤트가 있을때 검색될 수 있다.

(2)

(3)

4.3 Planning and Reacting

Challenge

계획성, 일관되고 신뢰할만한 행동을 보이기 위해는 계획이 필요하다. 계획 없이는 Agent가 점심을 먹는다고 가정할때 12시에 저녁먹고 12:30에 또먹고 1시에 또먹고 하는 일이 일어날 수 있다.

 

Approach

작성일 : 23.01.30

 

출발하기 앞서

제 전역이 임박했습니다. 사지방도 여건이 쉽지 않아서, 개발 공부는 커녕 영어공부 할 시간도 없었습니다. 군대는 뺑뺑이다가 옛말이 아님을 몸소 확인하고, 마지막 휴가를 나와서 기술동향을 대충 훑어보고 있는데, 이게 뭔가.. Chat GPT라는 괴물이 세상에 풀려있었습니다.

 

이제 껏 군대에서 꼬깃꼬깃 종이에 적어내렸던 조잡한 아키택처들이 너무 보잘것 없어지는 순간이었습니다.

방금 한번 데모페이지에서 테스트 해본 걸로도 어이가 없었습니다. 

한국어가 어색하다. 특히 영어권 국가에 없는 존댓말과 반말에 약했다.

여러가지 시도를 해가며 40분정도 체험해 본 결과를 정리해봤습니다.

 

체험내용

멀티턴에도 굉장히 높은 기억력과 이해력을 보였으며, 유기적인 맥락 조합능력이 매우 좋았습니다. 하지만, 아무래도 한국어에대한 적응력이 부족했으며, Chat GPT의 말투는 어딘가 번역된 어투인 감이 많았습니다. 예를 들면 '출력 : 안녕 ~ 어떻게 지내?'는 한국인이 잘 쓰지 않는 언어들로 누가봐도 Hello, How are you가 번역 된 말투같았습니다.

 

뭔가 Chat GPT에 대하여 잘 알아보고 쓰는 게시물이 아니라 그냥 구경하는 게시물임으로, 이번엔 단지 이 괴물같은 녀석을 체험한 체험기느낌으로 작성하려고 합니다. Feat. 뉴진스 민지....!

 

챕터가 오픈도메인 챗봇이니 페르소나를 입혀보려고 노력을 해봤는데 한국어로는 쉽지 않은 것 같네요, 아니면 제가 모르는 적절한 입출력 포멧이 있는걸지도 모르겠습니다.

 

장점

멀티턴, 높은 기억력, 이해력, 대화 맥락 조합능력

 

단점

한국어 못함, 번역된 듯한 말투, 영어식 회화

 

평가

그~~~래도 아직은 한국어에 한해서, 튜닝없이 써먹긴 어려워보입니다. 근데 이거... 재밌네요....

 

단점 + 고집 개썜

 

이번에는 MBTI를 간단하게 엑셀로 만드는 방법에 대하여 작성해보려고 한다.

최대한 쉽게 따라 해 볼 수 있도록 적었으니 궁금하면 한번 해보는 것 도 좋을 것 같다.

 

 

 

MBTI 설계 어떤식으로 해야할까? (원리)

우선 MBTI가 대충 어떤식으로 구성되어있는지 알아야 한다. (정말 간단하게 설명하겠음)

MBTI는 아래와 같이 각 4개의 상반된 성향의 조합이다. 이는 어떻게 조합되느냐에 따라 16개의 MBTI를 만들어낸다.

그렇기에 MBTI의 질문들은 각 4개의 성향을 가려내야한다.

 

가장 쉬운 방법은 E와 I를 구분짓는 질문 n개,

가장 쉬운 방법은 S와 N를 구분짓는 질문 n개,

가장 쉬운 방법은 T와 F를 구분짓는 질문 n개,

가장 쉬운 방법은 J와 P를 구분짓는 질문 n개

 

(n은 홀수여야 어떤 성향에 더 가까운지 알기 좋다.)

 

그렇게 각 성향을 종합한 뒤 사용자에게 ESFP 혹은 ENFJ같은 조합된 MBTI를 알려주면 되는 것 이다.

(출처) https://0muwon.com/entry/MBTI-%EC%9C%A0%ED%98%95%EB%B3%84-%EC%84%B1%EA%B2%A9-%EA%B0%84%EB%8B%A8-%EC%A0%95%EB%A6%AC

그렇다면 질문을 만들어보자! (질문 설계)

우리는 일반적으로 여러사이트에서 많이 볼 수 있는 12개의 문항을 가진 MBTI를 만들어 보려고 한다.

아직까지 감이 안잡힌 사람들을 위해 E와 I를 구분하는 질문 3개 (n=3)를 보도록 하자.

 

Q1같은 경우에는 YES 할 경우 E, NO 할 경우 I 인 질문이다.

Q2같은 경우에는 YES 할 경우 I, NO 할 경우 E 인 질문이다.

Q3같은 경우에는 YES 할 경우 E, NO 할 경우 I 인 질문이다.

 

이것을 종합하면 E성향 1개, I성향 2개가 나왔음으로, 답변을 작성한 사람은 I성향이라고 볼 수 있다.

그렇다면 다음의 질문 3개로 답변자가 I임을 알았음으로, 나머지 3개의 특성에 대하여 3개씩 질문을 만들면 MBTI 완성이다.

 

햇갈리지 않도록 다음과 같이 추가해주자.

이렇게 위와 같이 모든 질문을 다 만들었다. 사지방에서 2시간 만에 만드는 강의임으로 질문에 심혈을 기울여 만들지는 못했다.

 

자동으로 MBTI를 알려주는 함수처리!

그렇다면 이제 답변을 입력했을때 자동으로 MBTI를 알려주는 함수 처리를 배워보겠다.

위 사진의 오른쪽과 같이 계산 부분을 만들고 다음과 같이 입력한다. 

그러면 답변을 어떻게 쓰느냐에 따라서 무엇을 선택했는지 명시된다. 그런 뒤 함수부를 자동 채우기 해준다.

 

다음과 같이 완성된다.

그럼 다음처럼 완성이 된다. 그렇다면 어떤 성향이 과반수 이상을 차지하고 있는지 계산하는 함수를 작성하자.

아래와 같이 각 함수마다 1개 이상 I가 있다면 I성향 아니라면 E성향, 나머지도 조금씩 수정한 함수를 만들어 주면 된다.

 

각 각 함수를 쓸때 비교 문자를 바꿔줘야한다.

 

그렇게 함수를 적용하면 다음과 같이 된다.

90% 완성

답변을 수정하는 동시에 계산이 동기화 되어서 자동으로 종합 열에 있는 MBTI가 바뀐다.

이런식으로 말이다.

자 이렇게 까지만 만들면 일단은 완성이긴 하지만, 결과가 답변 수정과 함께 업데이트 되어 노출 되어버림으로, MBTI를 마치고 깜짝 결과를 공개하고 싶은 MBTI를 만든 사람의 의도에 맞지 않을 수 있기 때문에 공개 페이지를 따로 만들어 보겠다.

 

MBTI 공개 페이지를 만들어보자 (개성껏?)

우선 새로운 시트를 만든다.

이렇게 말이다.

이렇게 새로운 시트를 만들고 설문지에 있는 YES, NO, 계산, 종합 부분을 다 결과페이지로 옮겨버리면 좋겠지만, 강의를 쓰고 있는 사지방 이용시간이 10분 남짓하게 남았음으로 스피드하게 만들어보겠다.

 

결과 페이지에 다음과 같이 설문지의 종합 셀에있는 성향을 하나씩 가져다가 붙여준다.

그리고 노출되는 계산 부분을 다음과 같이 가려주면 된다. (시간 이슈로 조금 조잡해졌다)

 

이제 친구한테 가서 한번 시켜보자!

그럼 이제 답변창을 다 지운 뒤 친구에게 설문 탭을 보여주며, 한번 해보라고 하자

다했어요!!!

자 그럼 결과를 한번 볼까? (두구두구)

다음과 같은 결과를 볼 수 있다.

오 나는 ENFJ야!

 

응용하면 어떻게 만들 수 있을 까?

아래는 2020년 2월에 지인에게 웹 프로젝트 하는 방법과 과정에 대하여 알려주기 위해서 했던 작은 프로젝트인데, 생각보다 어떻게 만들었는지 궁금해하는 사람도 있고, 엑셀로 간단하게 자기만의 MBTI를 만들어보고 싶어서 물어보는 사람이 많아서 작성하게 되었다.

 

▼ 궁금하면 한번, 클릭?

 

[칵테일 MBTI] 2020 칵테일 MBTI 개발 PM 후기

사이트 링크 : http://cocktail-mbti.com 프로젝트 링크 : https://github.com/Public-Luna/Cocktail-MBTI 발표영상 : https://www.youtube.com/watch?v=T7VcDpdCvqc 만든지 어느덧 반년 넘은 위 서비스도 기억을..

luna-b.tistory.com

 

※ 후기

사지방 2분 남기고 포스팅을 완성했습니다 ! 정말 다행이군요!

'B급 서비스 > MBTI' 카테고리의 다른 글

[칵테일 MBTI] 2021 칵테일 MBTI 개발 PM 후기  (0) 2021.08.27

스케치 단계의 포스팅 입니다.

일단. AI Dungeon와 비슷한 인공지능을 만들면서, 생성모델과 데이터에 대한 아이디어를 조금 얻어보려고 한다.

 

 

 

아래는 AI Dungeon 이라는 게임 웹사이트이다.

 

AI Dungeon

 

aidungeon.io

실험을 시작하기로 마음먹은 것은 아래 보고 마음먹었다.

 

The Creator of AI Dungeon 2 Shares GPT-2 Finetuning Advice

The creator of AI Dungeon 2 talks about the hardware, dataset, and programming behind his never-ending AI-generated text adventure game.

towardsdatascience.com

 

학습은 아래의 텍스트 어드벤처 커뮤니티 웹사이트에서 학습을 시켜볼 생각이다.

 

Home > ChooseYourStory.com

Welcome to ChooseYourStory.com! ChooseYourStory.com is a community-driven website centered on Choose-Your-Own-Adventure style storygames. Members create their own storygames, read and comment on other members’ storygames, participate in the forum, and im

chooseyourstory.com

 

학습을 위해 다음과 같은 느낌의 스토리 포멧을 이용하면 좋을 것 같다고 생각했다.

 

Dungeon Stompage! > ChooseYourStory.com

An Item and Character-Stat driven Dungeon Adventure Challenge! Can you survive the perils, defeat the monsters, and win the game? Special Thanks To: JMgskills, simplesabley; betaband; Swiftstryker; madglee; October; & urnam0 (who found a second solution to

chooseyourstory.com

더 나아가서 실험할 것 중 하나로 여러가지 형식의 스토리 텍스트를

학습을 위한 전처리된 텍스트를 만들어 주기위해 원하는 포멧의 텍스트로 수정해주는 인공지능 모델을 만들수 있을ㄲ 생각중이다,

 

 

 

데이터셋 탐색

 

게임 스크립트이다. 

https://www.kaggle.com/datasets/lizakonopelko/disco-elysium-dialogue-texts

왕좌의게임 스크립트이다. 이거 진짜 괜찮아 보인다. 학습에 잘먹힐 잘 짜여진 구성이다.

https://www.kaggle.com/datasets/albenft/game-of-thrones-script-all-seasons

파이널 판타지 스크립트이다.

https://www.kaggle.com/datasets/tylerhuxtable/final-fantasy-dialogue-scripts

릴레이 소설을 쓰는 사이트이다. 저작권정책에 따르면 어쩌면 몇몇 릴레이 소설을 데이터셋으로 이용해 볼 수도 있을 것 같다.

https://www.writing.com/

연구 대기열

https://arca.live/b/giantess2/25529526?p=1

날렵한 곰의 논문 리뷰 시리즈입니다.
* 논문 읽는 연습을 하는 단계에서 쓴 글입니다.
※ 후기 (22.05.31)
다읽고 이해도 어느정도 했습니다. 짜투리 시간 쪼개서 종이에 꾸깃꾸깃 정리도 다 해놨었는데. 
훈련다녀오니 파쇄 되어있었습니다..

해당 논문은 실제 운용중인 서비스에 대하여 다룸으로 거대한 아키텍처 구조에 대한 개괄적인 설명과, 중요한 모듈에 대하여 상세한 구조와 수식을 제공하기도 합니다. 

좋은 아이디어와 영감을 얻을 수는 있었지만, 방대한 데이터를 기반으로 만든 아키텍처임으로 쉽사리 흉내내볼 엄두가 안나는 구현 내용이였습니다.

언제 이 리뷰글을 이어서 쓸지는 모르겠지만 상당히 도움이 되었다라고 할 수 있을 것 같습니다.

- 논문 링크 : https://arxiv.org/abs/1812.08989

 

The Design and Implementation of XiaoIce, an Empathetic Social Chatbot

This paper describes the development of Microsoft XiaoIce, the most popular social chatbot in the world. XiaoIce is uniquely designed as an AI companion with an emotional connection to satisfy the human need for communication, affection, and social belongi

arxiv.org

 

 

해당 논문은 Deview2020에서 발표된 스케터랩의 이루다라는 오픈도메인 챗봇 서비스에 대하여 소개하는 세션에서 접하게 되었으며, 이루다 서비스를 개발하는데 기반이 되었다고 하는 XiaoIce 라는 챗봇의 아키텍처에 대하여 설명한다.

 

군 복무 중, 정말 찔끔찔끔 시간 쪼개서 읽은 첫 논문이며, 종이에 찔끔찔끔 필기해서 싸지방에서 쓰는 첫 게시물이다.

삭막한 군생활에 감동과 위로 가득한 말들을 퍼부어주는 이루다 서비스를 사용하다가 읽어보게 되었다. 

 

Abstract

해당 논문은 Microsoft에서 만든 챗봇인 XiaoIce가 "공감가능한" 챗봇이 되기 위해 어떤 설계를 적용했는지 설명한다.

해당 논문이 설명하는 포인트는 다음과 같다.

 

1. EQ IQ 시스템을 어떻게 설계했는가.

2. Response를 위한 결정 알고리즘 구현을 어떻게 했는가. (MDPs, Markov Decision Processes 를 사용함.)

3. 유저와 long-term 대화가 가능하도록 어떻게 Optimize시켰는지

4. 성능측정을 위해 어떤 척도를 이용했는가 (CPS, Conversation-turns Per Session)

5. 시스템은 크게 System Architecture, Key Conponents (대화메니저, 코어쳇, 스킬, 공감 컴퓨팅 모듈) 가지로 구성됨.

6. 상대의 기분, 상태, 의도, 유저의 needs를 동적으로 파악하는 능력

7. XiaoIce의 성과. (660만 이상의 활성유저, 23의 높은 CPS)

 

 

1. Introduction

주 설계목표는 XiaoIce를 AI 친구로서 오래동안 감정적 유대를 형성 할 수 있는 챗봇으로 만드는 것이다.

 

 

1. 기존의 논문과 연구에는 Turing Test에 기준을 두며, 한정적 환경에서만 작동되고 hand-crafted rule에 기반한 방법들이 많았다.

2. Microsoft의 XiaoIce는 초기 중국어로 설계되어 660만명 이상의 활성유저를 보유하게 되었으며, 현재 각기 다른 이름으로 5개국에서 사용가능하도록 개발되었으며, 40개 이상의 플랫폼에 배포되어있다.

3. "Empathetic"하도록 설계하기 위해 상대의 감정, 상태, 이해, 의도, 필요를 파악할 수 있도록 설계

4. 2014년부터 5개국에 배포 이후 현재 본 논문을 종결하며, 토의와 미래 방향성을 제시한다.

 

2. Design Principle

소셜 챗봇은 유저의 특화된 요구 해결을 위해 IQ가 필요하며, 감정적 필요 충족을 위해 EQ가 필요하다.

 

2.1. IQ + EQ + Personality

IQ = 이해, 추론, 생성, 예측

230개 Skill을 구현하여 충족시킴. (ex, 영화 추천, 레스토랑 예약)

이중 가장 정교한 Core Chat 이라는 기술은 유저가 Open Domain 대화에 오래 참여가능하도록 만듬.

 

 EQ = 공감, 사회성

2개의 키포인트를 가짐

공감

유저 감정 식별 : 유저가 필요한 감정의 이해, 질의 이해, 유저 프로파일링, 감정 추적, 정서 인식, 동적 분위기 추적

사회적 스킬

챗봇의 개인화 된 응답, 동기부여, 유저맞춤 관심사, 대화 정체시 Topic 바꾸기

 

Personality = 개성

챗봇은 일관적인 개성을 보여주어야 하기 때문에, 개인적인 개성과 행동적 특징을 정의해 놓아야 한다.

여러 나라의 대화 데이터들을 분석해서, 각기 다른 개성을 부여하여 만들었다.

또한, 문화적 차이점에 접근하는 경우나 많은 민감한 윤리적 질문들에 대응할때 모범적으로 답하는 능력이 필요하다.

Figure1, Session20 에서 민감한 질문에 센스있게 대답하고 다른 대화주제로 회피하는 모습을 볼 수 있다.

XiaoIce의 Persona는 WeChat(랜덤채팅을 지원하는 중국의 유명 메신저)에 배포되기 위하여 설계되었다.

연구진은 만명의 저주와 욕설이 들어가 있지 않은 사람간의 대화 데이터를 수집하여, 각 유저가 "desired"하는 persona를 라벨링했다.

 

유저들의 주로 바라는 상대는 "Young", "Female User" 이렇게 2개의 라벨로 정의되었다.

그렇기에 XiaoIce를 설계할때 18세, 여성, 항상 의지되고, 공감을 잘하고, 애정어리고, 유머러스하게 설계했다.

 

 

2.2. Social Chatbot Metric: CPS

작업지향적 챗봇과 달리 소셜 챗봇은 테스크 성공률 측정이 어렵다.

이전에 사용하던 방식인 Turing Test는 성공적으로 감정적 유대를 만들어 나가고 있는지의 측정이 어렵다.

그렇기에 Number of Active User(NAU)이외에도 Conversation-turns Per Session (CPS)을 소셜 챗봇의 성공지표로 사용할 것을 제안한다.

 

Conversation-turns Per Session (CPS)

대화세션당 사용자와 챗봇의 평균 대화수를 의미한다. (높을수록 좋은)

 

해당 논문에서는 평가지표로서 평균 CPS를 측정할때, 단기적으로 서비스를 사용한사람이 아닌 장기적으로 서비스를 이용한 1~6개월이상 활성유저를 이용하여 평균 CPS를 근사시킨다.

 

평가 방법론은 평가지표가 잘못 평가 될 수 있는 가능성을 배제시킨다.

예를 들어 최근 연구에서는, "잘 못알아듣겠어, 무슨뜻이야?" 라는 말은 싱거운 답변이면서도 상호작용적인 반응을 포괄하고 있기 때문에 때때로 CPS를 증가시킬수 있지만, 싱거운 답변을 하는 봇과 오래도록 대화하는 사람은 없기에 장기적으로보면 CPS를 감소시킬 수 있다.

 

+ Recent posts