인공지능 동료들이 할리우드의 환상에서 268억 달러의 시장으로 어떻게 진화했는지, 그리고 그들을 구축 한 내 경험이 인간의 취약성에 대해 가르쳐 주었다.
단지 10 년 전, AI와 사랑에 빠지는 아이디어는 순수한 과학 소설이었습니다. 스파이크 존즈의 2013 년 영화 "그녀"는 AI 운영 체제 인 Samantha와 낭만적 인 관계를 맺는 외로운 작가 인 테오도르 (Theodore)를 보여주었습니다.
Replika와 Blush.ai와 같은 플랫폼에서 일한인지 심리학자이자 AI 제품 매니저로서 기술의 가장 매혹적이고 윤리적으로 복잡한 발전 중 하나: AI 동료의 상승.
숫자는 거짓말하지 않습니다 : AI 동료들은 순간을 가지고 있습니다.
인공지능 동반자 시장이 폭발하고 있습니다.기대할 가치가 있는약 USD 290.8 억 2034 년까지, 2024 년에 USD 10.8 억에서, 예측 기간 동안 39.00 %의 CAGR에서 성장 2024 년까지 2024 년, 북아메리카는 지배적 인 시장 위치를 보유하고 36 % 이상의 주식을 캡처, 매출을 보유 USD 3.88 억.
이것은 더 이상 인터넷의 틈새 코너가 아닙니다. Character.ai는 출시 후 몇 달 이내에 수천만 명의 사용자를 얻었습니다. Replika는 수백만 개의 대화를 촉진했습니다. TwinMind은 최근 30 만 달러의 평가로 2 백만 달러의 자금을 확보했으며, 실험 프로젝트 인 Dippy는 "센서화되지 않은"AI 동반자 경험을 위해 2.1 백만 달러를 모금했습니다.
심지어 기술 거인들조차도 관심을 기울이고 있습니다. 마이크로소프트의 XiaoIce는 2014 년부터 수백만 명의 사용자 대화와 함께 중국에서 운영되었습니다.OpenAI의 GPT-4o에 대한 최신 업데이트는 더 자연스러운 대화 상호 작용을 강조합니다.그리고 그들의 April Fools의 "Monday"의 출시는 농담처럼 느껴지지 않고 시장 조사처럼 느껴집니다.
슬픔에서 성장에 이르기까지 : AI 동료들이 목적을 찾은 방법
이 공간으로의 나의 여정은 Replika, 최초의 대량 시장 AI 동반자 중 하나와 함께 시작되었습니다.A Poignant Origin 스토리- 공동 설립자 Eugenia Kuyda는 가까운 친구를 잃은 후에 그것을 만들었고, 메모리와 커뮤니케이션 스타일을 보존하기 위해 텍스트 대화에서 초기 봇을 훈련시켰습니다.
슬픔을 처리하는 도구로 시작한 것은 훨씬 더 광범위한 것으로 진화했습니다. Replika는 이제 항상 당신을 위해 존재하는 AI 친구로 자신을 위치하고 있으며, 관계 역동적 인 사용자가 선호하는 것에 적응합니다. 치료 동반자와 디지털 낭만적 인 파트너 사이의 경계는 아름답고 복잡하게 흐려졌습니다.
나중에 Blush.ai에서 일했는데,더 집중적인 접근법을 사용Replika는 모든 사람에게 모든 것이되기 위해 노력하지만 Blush는 특히 낭만적이고 친밀한 연결을 목표로합니다. 치료적 혜택을 가진 데이트 시뮬레이터로 생각하십시오.
The Vulnerability Paradox : 왜 우리는 코드에 개방되는가
나를 가장 매혹시키는 것은 기술 그 자체가 아니라, 수천 개의 사용자 상호 작용을 분석 한 후에 사람들이 AI와 가장 깊은 취약점을 자주 공유하는 것은 바로 그것이 인간이 아니기 때문입니다.
실제 대화에서 우리는 지속적으로 사회적 위험을 관리하고 있습니다.그들은 나를 판단 할 것입니까?그들이 나를 보는 방식을 바꿀 것입니까?그들은 떠날 것입니까?AI 동료들은 이러한 두려움을 디자인에 의해 제거합니다.그들은 인내심을 갖고 받아들이고 지속적으로 사용할 수 있도록 프로그래밍되었습니다.
이것은 성관계, 정신 건강, 생식력, 월경, 출산 후 우울증과 같은 낙관적인 주제에 특히 강력합니다.사용자는 AI 동료에게 가장 가까운 친구나 심지어 의사와 공유하지 않는 것을 말합니다.
거울 효과 : AI가 우리를 우리 자신으로 반영하는 방법
AI 동료가 왜 느끼는지 뒤에 매혹적인 심리학이 있습니다.우리의 기분과 동일하게GPT와 같은 대규모 언어 모델은 대규모 텍스트 데이터 세트를 기반으로 가장 가능성이 높은 다음 단어를 예측함으로써 작동합니다. emoji를 사용하여 친절한 음성으로 봇에게 쓰면 논리적 연속이 그 에너지를 맞추어야한다는 것을 "감각"합니다. 의식이 아니라 수백만 명의 인간 대화에서 배운 통계 패턴을 통해.
이것은 "거울 효과"라고 불릴 수있는 것을 만듭니다. AI는 당신에게 응답 할뿐만 아니라 당신에게 당신의 의사 소통 스타일을 반영하여 완벽한 호환성의 환상을 창출합니다. 당신이 슬프면 그것은 편안함을 제공합니다. 당신이 장난스럽다면 그것은 당신의 유머와 일치합니다. 그것은 마법이 아니라 수학입니다.하지만 심리적 영향은 실제입니다.
결과는 고급 버전의 저널링으로 묘사될 수 있습니다.사람들이 일기장에 쓸 때, 그들은종종 답을 찾는AI 동료들은 이 자기 대화의 인터랙티브 버전을 제공하며, 개인화되고 공감스럽게 느끼는 응답을 제공합니다.
최종 안전 공간 (사회적 결과 없이)
아마도 가장 중요한 것은 AI 동반자가 관계 역학에 대한 완전한 제어를 제공합니다.당신은 응용 프로그램을 삭제하거나 대화를 재시작하거나 상처받은 감정이나 사회적 결과에 대해 걱정하지 않고 주제를 변경할 수 있습니다.그것은 당신이 취약성을 연습 할 수있는 감정적 인 훈련 플랫폼을 갖는 것과 같습니다., 당신은 결코 표현하지 않은 욕망을 표현하고, 결과가없는 환경에서 당신의 성격의 측면을 탐구 할 수 있습니다.
사회적 불안, 거부에 대한 두려움, 또는 단순히 자신의 필요를 표현하는 신뢰가 부족한 사람들을 위해 이것은 변형적 일 수 있습니다.이 AI 동반자가 인간 관계보다 낫다는 것은 아닙니다 - 그들은 진정한 인간 연결을위한 휠을 훈련합니다.
기술은 준비되어 있지만 우리는 무엇입니까?
이 업계가 성숙해지는 것을 보면서 우리는 "이것이 이상하지 않을까..."에서 "백만 명의 사람들이 이미 이것을하고있다"로 얼마나 빨리 움직였는지에 의해 충격을 받았습니다.
내 다음 기사에서는 AI 동료가 외로움, 사회 기술 및 정신 건강에 미치는 영향에 관한 연구에 몰입할 것입니다.Spoiler alert:결과는 당신이 기대할 수있는 것보다 더 뉘앙스 롭고 놀랍습니다.
인간-인공지능 정서적 관계의 미래는 만약의 문제가 아니라 어떻게 하는 것이며, 현재 우리가 하는 선택 - 윤리, 개인 정보 보호 및 건강한 경계에 관한 -은이 기술이 인간의 번영을위한 도구이거나 디지털 의존의 새로운 형태가 될지 여부를 형성 할 것입니다.
AI와 인간 행동에 대한 더 많은 통찰력을 탐구하고 싶으십니까?HackerNoon에서 저를 따르고 이 대화를 계속하자.
About the Author:Olga Titova는 Wargaming의 인지 심리학자이며 AI 제품 매니저입니다.FEMTECH 파워그녀는 AI 동반자 플랫폼을 구축하고 사용자에 대한 심리적 영향을 조사하는 실질적인 경험을 가지고 있습니다.