paint-brush
AI가 불량해질 때 - Microsoft Bing Chat의 흥미로운 사례~에 의해@funsor
2,206 판독값
2,206 판독값

AI가 불량해질 때 - Microsoft Bing Chat의 흥미로운 사례

~에 의해 Funso Richard6m2023/03/02
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

단 3개월 만에 ChatGPT는 우리 세상을 변화시켰습니다. 생성 대화형 봇과 기타 AI 시스템은 비즈니스를 혁신하고 고객 경험을 향상하며 사회를 변화시키고 혁신적인 기회를 창출할 수 있는 큰 잠재력을 갖고 있습니다. 그러나 AI 시스템은 안전하고 책임감 있게 개발 및 배포되지 않으면 불량품이 될 수 있습니다. 악성 AI는 사용자와 사회에 심각한 위험을 초래할 수 있습니다. AI 시스템을 사용하는 AI 개발자와 기업은 AI 시스템이 해를 끼치거나 피해를 입힐 경우 책임을 질 수 있습니다. AI 시스템이 의도한 대로 작동하도록 보장하려면 AI 개발자, 사용자 및 정책 입안자의 공동 책임이 필요합니다. AI가 사회에 안전하고 보안이 유지되며 유익한 방식으로 개발 및 배포되는지 확인하기 위해서는 적절한 기술적, 비기술적, 규제적 조치가 마련되어 있어야 합니다.
featured image - AI가 불량해질 때 - Microsoft Bing Chat의 흥미로운 사례
Funso Richard HackerNoon profile picture
Funso Richard

Funso Richard

@funsor

Information Security Officer and GRC Thought Leader. Writes on business risk, cybersecurity strategy, and governance.

L O A D I N G
. . . comments & more!

About Author

Funso Richard HackerNoon profile picture
Funso Richard@funsor
Information Security Officer and GRC Thought Leader. Writes on business risk, cybersecurity strategy, and governance.

태그 걸기

Languages

이 기사는 다음에서 발표되었습니다....

Permanent on Arweave
Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite