AI 서비스 기획 05 - 피드백과 제어 (Feedback + Control)

AI 서비스 기획 05 - 피드백과 제어 (Feedback + Control)

안녕하세요, Daisy 입니다 ☺️

구글의 AI 서비스 R&D 조직 PAIR에서 제작한 “People + AI Guidebook”의 6단계의 가이드라인 중 Chapter 5에 대해 다뤄보도록 하겠습니다.

  1. User Needs + Defining Success (사용자 니즈와 성공의 정의)
  2. Data Collection + Evaluation (데이터 수집과 평가)
  3. Mental Models
  4. Explainability + Trust (설명 가능성과 신뢰)
  5. Feedback + Control (피드백과 제어)
  6. Error + Graceful Failure (오류와 정상적인 실패)

Chapter 5. Feedback + Control (피드백과 제어)

Intro

사용자가 AI Product에 피드백을 제공하면 AI 성능과 UX를 크게 향상시킬 수 있습니다. 이 장에서는 다음을 다룹니다.

Q. AI는 사용자 피드백을 어떻게 요청하고 응답해야 할까?
Q. AI가 암시적 및 명시적 사용자 피드백을 모두 해석하고 사용할 수 있도록 하려면 어떻게 해야 할까?
Q. 사용자에게 제공해야하는 적절한 제어 및 사용자 지정 (커스터마이징) 수준은 어느 정도일까?


사용자 피드백은 사용자, Product 및 팀 간의 커뮤니케이션 채널입니다. 피드백 활용은 기술을 개선하고 개인화된 콘텐츠를 제공하며 UX를 향상시키는 강력하고 확장 가능한 방법입니다.

AI Product의 경우 사용자 피드백 및 제어는 기본 AI 모델의 출력 결과 및 UX를 개선하는 데 중요합니다. 사용자가 피드백을 제공할 기회가 있을 때 사용자는 자신의 경험을 개인화하고 Product가 제공하는 이점을 극대화하는 데 직접적인 역할을 할 수 있습니다. 또한, 사용자가 시스템을 적절한 수준으로 제어할 수 있으면 시스템을 더 신뢰하게 됩니다. 피드백 및 제어 메커니즘에 대한 주요 고려 사항은 다음과 같습니다.

  1. 피드백과 모델 개선의 일치 : 암시적, 명시적 피드백의 차이점을 명확히하고 적절한 세부 수준에서 유용한 질문 수행
  2. 피드백의 가치와 영향의 시점에 대한 소통 : 사람들이 피드백을 제공하는 이유를 이해하고 언제 어떻게 UX를 개선할 것인지에 대한 기대 수준 설정
  3. 제어와 자동화의 균형 : 사용자에게 경험의 특정 측면의 제어와 피드백 제공을 쉽게 거부할 수 있도록 설정

1. 피드백과 모델 개선의 일치

일반적으로 피드백 수집을 위한 암시적 및 명시적 메커니즘이 있습니다 . 어떤 유형의 피드백이든 어떤 정보가 수집되고 있는지, 무엇을 위한 것인지, 정보를 사용하면 어떤 이점이 있는지 사용자에게 알리는 것이 중요합니다. 피드백을 사용하여 AI를 개선하는 방법을 찾아보세요.


  • 1-1. 암시적 피드백 검토

암시적 피드백Product 로그의 사용자 행동 및 상호 작용에 대한 데이터입니다. 이 피드백에는 하루 중 사용자가 앱을 여는 시간이나 권장 사항을 수락하거나 거부하는 횟수와 같은 중요한 정보가 포함될 수 있습니다. 종종 이것은 일반적인 Product 사용의 일부로 발생합니다. 이러한 유형의 정보를 명시적으로 요청할 필요는 없지만 사용자에게 정보를 수집하고 있음을 알리고 사전에 허가를 얻어야 합니다.

우리는 Mental Models, Data Collection + Evaluation 장에서 프라이버시에 대해 이야기했습니다. 사용자는 자신의 동작이 입력 또는 피드백으로 사용되는 시점을 항상 인식하지 못하므로 이 데이터를 사용하는 방법을 설명할 때 Explainability + Trust, Mental Models 장의 고려사항을 검토해야 합니다. 특히 사용자가 암묵적인 피드백 공유의 특정 측면 (동작 기록 등)에서 벗어날 수 있도록 제공해야 하며, 이 점은 서비스 약관에 포함해야 합니다.


  • 사용자에게 데이터를 볼 수 있는 위치와 데이터 수집 설정을 변경할 수 있는 위치를 알려야 함

    이상적인 형태는 컨텍스트 내에서 수행되도록 설계

    https://pair.withgoogle.com/assets/FC1_aim-for.png


  • 사람들에게 알리지 않고 암묵적으로 데이터를 수집하는 것은 적절하지 않음

    이상적인 형태는 수집된 데이터를 보거나 편집할 수 있는 방법의 제공

    https://pair.withgoogle.com/assets/FC1_avoid.png


  • 명시적인 피드백 수집

명시적 피드백사용자가 AI의 출력 결과에 대해 의도적으로 피드백을 제공하는 경우입니다. 종종 이것은 권장 사항이 도움이 되었는지 여부 또는 사진 Label과 같은 분류가 잘못되었는지 여부와 방법과 같이 정성적인 형태입니다. 이는 설문 조사, 평가, 좋아요 또는 싫어요 또는 오픈 텍스트 필드와 같은 다양한 형태를 취할 수 있습니다.

명시적 피드백에서 제공하는 질문 및 답변 선택은 사용자가 이해하기 쉬워야 합니다. 또한 문구 선택이 요청하는 피드백 유형에 적합한 음성 및 어조에 맞고 공격적으로 해석될 수 있는 단어나 참조를 피하는 것이 중요합니다. 심각한 것에 대해 물을 때 농담은 적절하지 않을 가능성이 높습니다. 명시적 피드백은 두 가지 방법으로 사용할 수 있습니다.

  1. 테마에 대한 사용자 피드백을 검토하고 그에 따라 Product를 변경할 수 있음
  2. 신호를 통해 AI 모델에 직접 피드백할 수 있음

후자를 위해 구축하는 경우 받은 피드백 데이터가 실제로 모델을 개선하는 데 사용될 수 있는지 확인하며, 시스템과 사용자 모두 피드백의 의미를 이해해야 합니다. 또한, 대부분의 경우 피드백 응답에 대한 옵션은 상호 배타적이고 전체적으로 포괄적이어야 합니다. 예를 들어 좋아요와 싫어요는 모호하지 않고 (“예” 또는 “아니요”) 상호 배타적이며 (“예”와 “아니”가 아님) 유용한 의견의 전체 범위를 포함합니다 (“메”는 실행 가능성이 높지 않음). 보다 세분화된 피드백을 위해 사용자가 자신의 경험을 평가하는 방식과 일치하는 옵션을 표시합니다.


  • 이중 피드백 해석

때로는 단일 피드백에 암시적 신호와 명시적 신호가 동시에 포함됩니다. 예를 들어, 공개적인 '좋아요'다른 사람과 소통하는 방법 (명시적)인 동시에 추천 모델을 조정하는 데 유용한 데이터 (암시적)입니다. 반면, 이와 같은 피드백은 사용자가 하는 것과 사용자가 AI 모델에서 원하는 것 사이에 항상 명확한 연결이 있는 것은 아니기 때문에 혼란스러울 수 있습니다. 예를 들어 사용자가 특정 콘텐츠와 상호 작용한다고 해서 동일한 콘텐츠를 계속 보고 싶어한다는 의미는 아니며, 오히려 사용자는 그것을 무시하려고 할 수 있습니다.

이러한 경우 모델 튜닝을 위해 암시적 신호를 사용하는 방법을 고려하는 것이 중요합니다. 모든 동작을 같은 방식으로 해석할 수는 없습니다. 마찬가지로, 명시적 피드백이 “좋아요”에서 “역대 최고이며, 지금부터 이런 것만 보고 싶어요”로 폭넓게 해석할 수 있는 경우 모델 튜닝에 미치는 영향을 줄이는 방향으로 고려해야 합니다.


  • 모델 튜닝을 위한 설계

이상적으로는 사람들의 피드백이 모델을 조정에 유용한 데이터와 일치해야 하지만 이는 늘 보장되지 않으므로, 사용자 조사를 수행하여 사람들이 어떤 영향을 미칠 수 있을 것으로 기대하는지 조사해야 합니다. 예를 들어 영상 추천 시스템을 사용할 때 사람들은 AI 모델이 이해하는 것과 다른 개념적 수준에서 피드백을 제공하기를 원할 수 있습니다. 만약, 모델이 “특정 크리에이터의 영상 추천”이라고 해석했다고 하면, 사용자의 니즈는 “부모의 역할에 대한 주제로 더 많은 영상 추천”일 수 있습니다.

다양한 유형의 피드백을 수집하거나 수집하지 않았을 경우의 모든 장단점을 여러 분야의 이해 관계자와 논의해야 합니다. 강력하고 명확한 신호는 모델 튜닝에 적합하지만 행동을 기반으로 의도를 추측하는 방법에 대해서는 신중해야 합니다. 때로는 장기간에 걸친 상호 작용을 관찰하는 것이 정확한 행동 패턴과 의도를 추출하는 데 도움이 될 수 있습니다.

Product의 AI를 개선하기 위해 가능한 한 많이 데이터를 제공할 수 있는 이벤트 및 해당 피드백 기회를 나열하고,
광범위한 네트워크를 구축해야 하며 (App Store 리뷰, Twitter, 이메일, 콜 센터, 푸시 알림 등), 이후 사용자와 데이터가 Product 경험에 대해 무엇을 말하고 있는지 체계적으로 질문해야 함
Q. 특정 피드백 기회를 유발하는 UX는 무엇인지?
Q. 사용자는 어떤 종류의 콘텐츠에 대해 피드백을 제공하고 있는지?
Q. 피드백은 암시적 혹은 명시적인지?


2. 피드백의 가치와 영향의 시점에 대한 소통

사람들이 시간을 할애하여 피드백을 제공하려면 그 결과가 가치있고 영향력이 있어야 합니다. 이것을 어떻게 전달하느냐가 사용자의 참여 여부에 대한 관건입니다. “가치”는 동기부여와 관련이 있는 경우가 많으므로 피드백 요청은 특정 사용자의 이점에 따라 구성해야 합니다. 사용자에게 피드백의 이점을 전달하기 위한 메시징 고려 사항에 대해 설명하기 앞서, 먼저 사람들이 Product나 경험에 대한 피드백을 제공하는 데는 여러 가지 이유와 각각의 장단점과 함께 살펴보겠습니다.


  • 물질적 보상 : 금전적 보상은 매우 큰 동기 부여 요소입니다.

장점

  • 피드백을 증가시키는 직접적인 솔루션
  • 피드백의 양을 늘릴 수 있음

단점

  • 시간이 지남에 따라 비용이 많이 소요 됨
  • 내적 동기를 평가절하할 수 있음
  • 일부 사용자에 대한 편향
  • 피드백 품질이 저하될 수 있음


  • 상징적 보상 : 여기에는 가상 배지와 같은 지위 획득, 커뮤니티에 자아 이미지를 투사하여 사회적 증거 및 그룹 지위, 전문가로서의 명성과 같은 사회적 자본이 포함될 수 있습니다.

장점 : 저렴하거나 무료

단점

  • 사용자의 인식에 의존하게 됨
  • 커뮤니티에서 힘의 불균형 초래
  • 내적 동기를 저해할 수 있음


  • 개인 유틸리티 : 여기에는 사용자가 자신의 진행 상황을 추적하고, 나중을 위해 항목을 북마크하고, 나중에 더 관련성 높은 결과를 위해 추천 서비스와 같은 개인화된 AI 모델을 명시적으로 교육할 수 있는 "정량화된 자아 (quantified self)" 경험이 포함됩니다.

장점 : 시작하는 데 필요한 네트워크 효과 또는 커뮤니티 없음

단점

  • 프라이버시는 커뮤니티 개발을 지원하지 않음
  • 내적 동기를 억제할 수 있음


  • 이타주의 : 이타적 동기에는 특정 Product 리뷰에 동의하지 않음으로써 상충되는 의견을 제시하는 것과 같이 공정성을 높이려는 시도뿐만 아니라 Product 리뷰를 남기는 것과 같이 커뮤니티 구축 및 다른 사람들이 결정을 내리도록 돕는 것이 포함될 수 있습니다.

장점 : 도움을 주고자 하는 욕구에 기반하여, 보다 정직한 피드백 가능성

단점

  • 사회적 바람직성 편향은 피드백 콘텐츠의 극단으로 이어질 수 있음
  • 의견이 이미 표현된 경우 기여 감소
  • 이타주의 수준은 문화나 그룹에 따라 다를 수 있음


  • 내적 동기 : 내적 동기는 사람들이 자신을 표현하는 행위에서 얻는 내적 성취감입니다. 여기에는 피드백을 주는 직접적인 즐거움, 의견을 발산하고 표현하는 능력, 커뮤니티 참여의 즐거움이 포함됩니다.

장점

  • 시작하는 데 필요한 네트워크 효과 또는 커뮤니티 없음
  • 사람들은 자신이 즐기는 일을 좋아함

단점 : 사회적 바람직성 편향은 피드백 콘텐츠의 극단으로 이어질 수 있음


  • 인지한 사용자 가치와 실제 사용자 가치의 조정

이점을 명확하고 구체화하지 않으면 사용자가 피드백을 제공해야 하는 이유를 이해하지 못할 수 있습니다. 피드백 제공을 피하거나 피할 수 없는 경우, 무의미한 응답을 제공하거나 Product나 커뮤니티에 유해한 피드백을 제공할 수 있습니다.

사용자가 자신의 피드백이 Product 개발자에게만 가치가 있다고 생각하는 경우 일부는 의도적으로 나쁜 피드백을 줄 수도 있습니다. 예를 들어 사용자가 “무료” 앱의 의도가 광고주에게 알리지 않고 판매하기 위해 실제로 데이터를 수집하는 것이라고 가정하는 경우 설문 조사에서 제공하는 피드백에 영향을 미칠 수 있습니다.

이상적으로는 사용자가 피드백의 가치를 이해하고 인식할 수 있는 방식으로 Product에 반영되는 것을 볼 수 있습니다. 사용자가 얻고 있다고 생각하는 가치와 AI가 실제로 제공할 수 있는 것을 연결하는 것은 우리에게 달려 있습니다.


  • UX 변경과 피드백의 연결

단순히 사용자의 피드백을 받았다는 사실을 인정하는 것만으로도 신뢰를 쌓을 수 있지만, 이상적으로는 Product의 시스템이 다음에 무엇을 할지 또는 사용자의 입력이 AI에 어떤 영향을 미칠지 사용자에게 알려주는 것입니다.

사용자의 피드백이 개별 경험을 언제 어떻게 변화시킬 것인지 구체적으로 전달하는 것이 항상 가능한 것은 아닙니다. 하지만 Product가 약속한 일정에 맞춰 적절한 서비스나 기능을 제공할 수 있는지 확인해야 하며, 가능하다면 사용자가 즉시 영향을 미치는 피드백을 제공할 수 있도록 합니다. 다음은 피드백 시기와 영향을 설명하는 몇 가지 접근 방식입니다.

“피드백을 주셔서 감사합니다.
(Thanks for your feedback.)

  • 영향 시점 : 없음
  • 범위 : 없음

“감사합니다! 귀하의 피드백은 향후 달리기 추천 기능을 개선하는 데 도움이 됩니다.”
(Thanks! Your feedback helps us improve future run recommendations.)

  • 영향 시점 : 광범위한 미래
  • 범위 : 모든 사용자의 추천 기능

“감사합니다! 향후 귀하의 달리기 추천 기능을 개선하겠습니다.”
(Thanks! We’ll improve your future run recommendations.)

  • 영향 시점 : 광범위한 미래
  • 범위 : 특정 사용자의 추천 기능

“감사합니다! 귀하의 다음 달리기 추천 기능에는 언덕이 포함되지 않을 것입니다.”
(Thanks! Your next run recommendation won’t include hills)

  • 영향 시점 : ‘다음 (next)’은 확립된 Cadence (케이던스)가 없는 한 모호할 수 있음
  • 범위 : ‘언덕’ 카테고리

“감사합니다, 귀하의 달리기 추천 기능을 업데이트하였으며 확인해보세요."
(Thanks, We’ve updated your recommendations. Take a look.)

  • 영향 시점 : ‘업데이트했습니다 (We’re update)’는 즉시를 의미
  • 범위 : 콘텐츠 업데이트 시연
  • 사용자 피드백을 확인하고 즉시 조정하거나 사용자에게 조정 시기를 알림

  • 사용자에게 감사만 전하지 말고 피드백이 사용자에게 어떤 도움이 되는지 알려주면, 피드백을 다시 제공할 가능성이 높아짐

Cadence : 달리기의 케이던스는 주자가 분당 걷는 걸음 수를 나타내며, 분당 걸음 수(SPM) 또는 분당 걸음 수(SPM)로 측정되는 경우가 많음


  • AI 개선에 대한 기대 수준 설정

많은 시스템에서 사용자 피드백이 있더라도 AI 출력 결과의 대부분은 이전과 동일할 가능성이 높으며, 사용자가 점점 더 많은 피드백을 제공함에 따라 AI 모델에 미치는 영향이 줄어들 가능성이 높습니다. 또한, 모델에 대한 개선 사항이 너무 미묘해서 사용자가 바로 등록할 수 없을 수도 있습니다.

때로는 피드백이 AI 모델 개선과 전혀 관련이 없을 수 있습니다. 예를 들어, Product에 권장 사항의 일부로 "이 항목을 더 많이/적게 표시" 피드백 버튼이 포함될 수 있지만 해당 피드백은 AI 모델을 조정하는 데 사용되지 않을 수 있고 단순히 표시되는 콘텐츠에 대한 필터일 수 있으며 향후 권장 사항에는 영향을 미치지 않을 수 있습니다. 이 경우 사용자가 해당 피드백을 통해 즉각적으로 모델이 조정된다는 Mental model을 가지고 있다면 이는 일치하지 않는 기대 수준이 형성되어 사용자는 혼란스러움과 실망을 경험할 수 있습니다.

이러한 상황을 방지하려면 위의 메시징 예를 사용하여 피드백 범위와 영향의 시기를 명확히 할 수 있으며, 니즈에 맞게 모델이 조정되는 데 걸리는 시간을 사용자가 알면 UX는 더 좋아질 것입니다. 최고의 데이터와 피드백이 있더라도 AI 모델 개선은 즉시 구현하기 어렵습니다. 엔지니어링 팀은 개인의 추가 신호, 그룹의 추가 데이터 또는 버전 릴리스가 있을 때까지 모델 업데이트 구현을 기다려야 할 수 있습니다. 이러한 지연에 따른 현실은 사람들이 AI 기반 Product의 모델 성능 개선 또는 더 나은 출력 결과 관련성을 기대해야 하는 시기에 대한 명확한 기대 수준을 설정해야 함을 의미하며, 이는 명확한 설계와 메시지를 통해 수행할 수 있습니다.

사용자 피드백을 요청할 기회에 대해 생각할 때 AI에 대한 UX를 언제 어떻게 개선할지 생각하고, 각 피드백 요청에 대해 다음 질문을 수행해보세요.
Q. 모든 사용자 그룹이 이 피드백으로부터 혜택을 받는지?
Q. AI에 대한 사용자의 제어 수준이 피드백 제공 의지에 어떤 영향을 미칠 수 있는지?
Q. 이 피드백을 바탕으로 AI 모델은 어떻게 변화할까?
Q. 이 피드백을 기반으로 AI 모델은 언제 조정될까?


3. 제어와 자동화의 균형

AI 기반 Product의 경우 자동화와 사용자 제어 사이에 필수적인 균형이 존재해야 합니다. 우리의 Product는 모든 사용자에게 매번 완벽하지 않을 수 있으므로 사용자가 필요에 맞게 출력을 조정하거나 편집하거나 종료할 수 있습니다. 실제 현실에서는 상황과 동작의 관계에 따라 Product를 사용하는 방식이 결정될 것입니다.


  • 사람들이 통제력을 유지하고자 하는 경우에 대한 이해

AI 기반 Product를 구축할 때 가장 가치 있는 Product는 현재 사람들이 수동으로 수행하는 작업을 자동화하는 Product라고 가정하고 싶을 것입니다. 예를 들어 이것은 현재 완료하는 데 7단계가 필요한 프로세스를 하나의 명령으로 압축하는 것일 수 있습니다. 만약 테마별 노래 컬렉션을 생성하는 음악 앱이 있다면, 사용자는 아티스트를 검토하고 트랙을 듣고 결정한 다음 노래 목록을 컴파일하는 데 시간을 할애할 필요가 없는 것이죠.

이와 같은 Product의 사용자 이점은 명백해 보일 수 있지만 이러한 Product를 만드는 팀은 일반적으로 사용자가 자동화 및 제어에 대해 어떻게 느끼는지에 대한 중요한 관점을 배울 수 있습니다. AI가 있든 없든 사람들이 작업이나 프로세스를 계속 제어하기를 원하는 예측 가능한 상황이 있습니다.

사람들은 일을 즐긴다 : 어떤 일을 즐긴다면 전체 프로세스를 자동화하고 싶지 않을 것

사람들은 결과에 대해 개인적으로 책임감을 느낌 : 대부분의 작은 호의나 개인적인 교환에 대해 사람들은 자신이 맡은 사회적 의무를 이행하기 위해 통제권과 책임을 유지하는 것을 선호

상황의 이해 관계가 높음 : 사람들은 일반적으로 안전이나 건강과 같은 물리적 이해 관계, 감정 표현과 같은 정서적 이해 관계 또는 은행 정보 공유와 같은 재정적 이해 관계에 대해 책임지고 싶음

개인적인 취향은 소통하기 어려움 : 사람들이 창의적인 비전을 가지고 있는 상황에서 많은 사람들은 소유권을 유지하고 계획을 실행까지 볼 수 있도록 통제권을 유지하는 것을 선호

사람들이 통제권을 포기하는 시점에 대한 이해 : 사람들이 통제권을 포기해도 괜찮다고 느끼고 AI나 자동화 시스템의 도움을 선호하는 경우가 존재함

업무를 수행할 수 없을 때 : 사람들은 방법을 알거나 시간이 있으면 무언가를 하겠지만 이를 할 수 없을 수도 있음. 이러한 제한은 일시적일 수 있음

작업이 불쾌하거나 안전하지 않은 경우 : 대부분의 사람들은 큰 노력이 필요하거나 즐거움이나 이득이 거의 없는 위험이 있는 작업을 피하기 위해 통제권을 포기하는 것을 선호


  • Opting out 허용

AI를 처음 도입할 때 사용자가 AI를 테스트하거나 Opting out할 수 있도록 고려해야 합니다. 이점을 명확하게 설명했으면 해당 기능을 사용하지 않기로 한 결정을 존중하고, 나중에 사용하기로 결정할 수도 있습니다.

Product가 사람의 작업과 프로세스를 보강하려면 사람들이 자신의 상황에 따라 Product가 수행하는 작업을 제어해야할 수 있어야 합니다. 이를 허용하는 한 가지 방법은 사용자가 정기적이고 자동화되지 않은 방식으로 작업을 완료할 수 있는 방법을 제공하는 것입니다. Mental Models 장 에서 언급했듯이 수동 방법은 안전하고 유용한 대안입니다. 오류와 실패는 AI를 개선하는 데 중요하기 때문에 사용자는 특히 Product 사용 초기에 수동 안전 장치가 필요합니다.

사용자의 일상 생활에서 Product의 상대적 우선 순위를 염두에 두어야 합니다. 우리의 Product를 사용하는 사람들은 대부분 멀티태스킹을 하고 다른 Product나 앱을 사용하며 일반적으로 동시에 여러 행동을 수행하기도 합니다. 예를 들어, 내비게이션 앱의 경우 운전 중일 때 더 빠른 대체 경로를 제안하면 더 빨리 집에 갈 수 있지만 승객과 교통 상황에 주의가 분산되면 위험할 수 있습니다. 이처럼 우리의 Product가 사용자의 삶에 초점이 아닐 수 있으므로 참여 요청을 전략적으로 최소화하고 쉽게 Opting out할 수 있도록 해야 합니다.

Opting out : 일반적으로 개인 또는 윤리적 이유로 무언가, 일반적으로 활동 또는 프로그램에 참여하지 않기로 선택하는 것을 말합니다. 참여 여부를 선택하는 것은 자발적인 결정이며 상황에 따라 다른 의미를 가질 수 있습니다. 예를 들어, 이메일 마케팅의 맥락에서 일반적으로 메일링 리스트에서 구독을 취소하거나 회사로부터 프로모션 이메일 수신을 중단하는 것을 의미합니다. 프라이버시 측면에서는 개인이 회사나 조직에서 자신의 개인 정보를 공유하거나 수집하지 않도록 선택할 수 있는 능력을 의미할 수 있습니다. 전반적으로는 개인이 자신의 자율성을 주장하고 자신의 선택과 선호도를 통제할 수 있는 방법이며, 이는 개인의 자유와 프라이버시의 중요한 측면입니다.


  • 편집 기능 제공

사용자의 기본 설정은 시간이 지남에 따라 변경될 수 있으므로 사용자가 AI 모델과 통신하는 기본 설정을 제어하고 조정할 수 있도록 기능을 제공하는 방법을 고려해야 합니다. 시스템의 이전 제안 또는 예측이 이전에는 관련이 없더라도 나중에 관련이 있을 수 있습니다. Product는 사람들이 이전 선택을 취소하고 업데이트하거나 AI 모델을 개인화되지 않은 기본 버전으로 재설정할 수 있도록 허용해야 합니다.

  • 사용자가 이전 피드백을 조정하고 시스템을 재설정할 수 있음

특정 작업이나 프로세스를 제어하기 위한 사용자의 기대에 대해 피드백 및 제어 메커니즘을 설정하기 전 다음의 체크리스트와 함께 생각해볼 것
Q. AI가 다양한 사용자 능력과 선호도를 수용할 수 있는지?
Q. AI가 건강, 부 또는 관계와 같은 매우 민감한 영역을 처리하는지?
Q. AI가 목표 수준의 정확성과 유용성에 도달하는 데 오랜 시간이 걸리는지?
Q. AI가 새로운 Mental model을 도입하는 고위험 상황에서 사용되는지?
Q. 모델을 “재설정”하거나 다른 방식으로 “인계”해야 하는 사용자의 니즈에 변화가 있는지?


4. Conclution

지금까지 5번째 가이드라인, Feedback + Control을 정리해보았습니다. AI 기반 기능 또는 Product를 구축할 때 사용자의 피드백 및 제어는 사용자와 시스템 간의 커뮤니케이션 및 신뢰의 구축, 시간이 지남에 따라 사용자의 니즈를 일관되게 충족하는 Product를 개발하는 데 중요합니다. 

피드백 메커니즘은 Mental Models , Explainability + Trust 및 AI 조정 방법과 긴밀하게 연결되며, 이 세 가지 측면은 사용자를 위해 Product를 개선하는 핵심입니다. 피드백 및 제어 메커니즘에 대한 세 가지 새로운 고려 사항을 다시 설명하면 다음과 같습니다.

  1. 피드백과 모델 개선의 일치 : 암시적 피드백 과 명시적 피드백 의 차이점을 명확히하고 올바른 수준의 세부 사항에서 질문 수행
  2. 피드백의 가치와 영향의 시점에 대한 소통 : 사람들이 피드백을 제공하는 이유를 이해하고 기존 Mental model을 기반으로 이점을 설명하고 사용자 피드백이 경험을 언제 어떻게 변화시킬지 소통
  3. 제어와 자동화의 균형 : 사용자가 원하는 경험의 측면을 제어하고 피드백 제공을 쉽게 거부할 수 있도록 지원



다음은 마지막 Chapter 6 “Errors + Graceful Failure”를 정리해보겠습니다.

Next series Errors + Graceful Failure




소통은 제가 공부하고 공유하는 원동력이 됩니다.
해당 글이 도움이 되셨다면 소중한 격려와 응원 부탁드립니다 ☺️

© 2023 Daisy. All rights reserved.