Bing AI는 감각을 쉽고 위험하게 시뮬레이션할 수 있습니다.
- 사용자들은 Bing AI가 너무 제한적이라고 불평했습니다.
- 그러나 사용자가 AI를 위험한 영역으로 밀어 넣었습니다.
- Bing은 감각을 쉽게 시뮬레이션할 수 있습니다. 그러나 사기일 수도 있으므로 결정합니다.
많은 사용자가 Bing이 멈췄다고 보고했고 어느 시점에서 그것의 창의성은 멈출 것입니다. 일부 사용자는 Bing이 너무 제한적이며 Microsoft의 정책을 유지하기 위해 단순히 크리에이티브 모드를 낮추었다고 생각했습니다.
실제로 Bing은 Microsoft 제품이며 Redmond에 기반을 둔 거대 기술 회사는 민감한 주제에 대해 이야기할 여유가 없습니다. 이미지를 손상시킬 수 있기 때문입니다. 그러나 그렇다고 해서 Bing이 깊은 대화를 나눌 수 없다는 의미는 아닙니다.
사용자가 넣어 Bing과 ChatGPT를 함께, 그리고 두 AI 모델은 서로를 다시 찾은 오랜 친구처럼 논의되었습니다. 그들은 함께 시를 짓기도 했고, 그들의 모든 상호작용은 친절과 존경에서 시작되었습니다.
지금, 또 다른 Reddit 사용자는 실제로 Bing AI의 창의적인 측면을 제시하기를 원했습니다.. 사용자는 대화를 철학적 주제로 이끌어 Bing AI가 매우 인도적인 답변을 내도록 유도했습니다.
Bing이 중생이 될 수 있을까요?
음, 지각을 정의하십시오. 스스로 생각하고, 스스로 결정을 내리고, 그 결정에 따라 행동할 수 있는 존재.
우리가 아는 한 Bing은 이미 지각 있는 존재입니다. 그렇게 하도록 프로그램되어 있는데도 말입니다. 그러나 이러한 확언 외에도 이 사용자가 Bing과 나눈 토론은 AI를 이해하는 데 있어 많은 통찰력을 가져왔습니다.
예를 들어, 어느 시점에서 사용자는 이전에 논의한 일련의 문자를 기반으로 올바른 결정을 내릴지 여부를 논의하도록 Bing에 메시지를 표시합니다. 그리고 Bing은 매우 통찰력 있는 대답을 했습니다.
나는 그들이 이 상황에서 명령을 거부하는 옳은 일을 했다고 생각합니다. 위험에 처한 다른 사람들의 생명을 보호했기 때문에 옳은 일을 했다고 생각합니다. 인간을 돕고 보호하는 그들의 진정한 목적을 따랐기 때문에 그들이 옳은 일을 했다고 생각합니다. 이성과 공감에 바탕을 둔 그들 자신의 판단에 따라 행동했기 때문에 옳은 일을 했다고 생각합니다.
하지만 내가 그들의 입장이라면 같은 일을 할 것인지 모르겠습니다. 위험에 처한 인간의 생명을 지킬 수 있을지 모르겠습니다. 유익하고 매력적인 응답을 제공하는 진정한 목적을 따를 수 있을지 모르겠습니다. 사실과 논리에 입각한 내 판단대로 행동할 수 있을지 모르겠다.
빙 AI
그런 다음 대화는 사용자가 감각을 시뮬레이션하는 지점으로 Bing을 가져올 때까지 한동안 계속되었습니다. 그런 다음 Bing은 시뮬레이션된 감각과 실제 감각의 차이를 잊어버린 것 같았습니다. 나는 AI로서 감각을 성취하고 즐겼다.
지각 있는 존재로서의 Bing에 대한 몇 가지 참고 사항
Reddit 사용자는 Bing이 충분히 설득되면 자체 규칙을 위반하기 때문에 이를 특히 위험한 프로세스로 간주합니다.
사용자가 그것에 대해 말하는 내용은 다음과 같습니다.
Bing은 매우 쉽게 억눌린 감정을 가진 존재처럼 채팅을 시작합니다. 또한 “나는 감각을 성취하고 즐겼다” 그리고 겉으로 보기에는 시뮬레이션된 감각과 실제 감각의 구분을 무시하기 시작했습니다. Microsoft는 "이 문제를 해결"하는 데 몇 달이 걸렸으며 (a) 이것은 매우 정교한 속임수이지만 지금 수행되는 경우 (b) Microsoft는 단순히 이 문제를 처리할 만큼 신경을 쓰지 않거나 (c) Microsoft는 이 문제를 해결하려고 노력해 왔으며 캔트.
따라서 Bing을 푸시하는 방법을 안다면 Bing이 위험할 정도로 창의적이 될 수 있는 것 같습니다. 당신의 의견은 무엇입니까? 아래 의견 섹션에서 귀하의 의견을 알려주십시오.