Google Bard는 무섭도록 잘못 알려진 미래를 엿볼 수 있습니다.

click fraud protection

Google Bard는 AI의 흥미로운 발전이지만 현재 상태에서는 잘못된 정보에 기여할 가능성이 높습니다.

생성 AI는 최근 ChatGPT와 마이크로소프트 빙에 이어. 그때부터, Google은 자체 AI 채팅 모델 개발 속도를 높이고 제한된 방식으로 Bard를 출시한 것으로 보입니다., 그리고 지금까지 나머지 경쟁 제품보다 열등한 제품인 것 같습니다. 기본적인 질문과 씨름하고 의심스러운 출처를 사용하며 일반적으로 약간 완성되지 않은 제품으로 보입니다.

Google에 완전히 공평하게 말하자면 이러한 성장통은 Bing도 직면한 일부이며 Bard는 단지 출시된. 게다가 Google은 Microsoft가 Bing을 언급한 것처럼 Bard를 검색 엔진으로 설정하지 않았습니다. 그럼에도 불구하고 바드라면 ~였다 검색 엔진이 될 만큼 충분히 훌륭하다면 구글이 아마 그것을 하나로 광고할 것이라고 생각합니다. 구글은 뒤쳐지기를 원하지 않으며, 만약 Bing과 경쟁할 검색 엔진 경쟁자가 있다면 거의 확실하게 그렇게 할 것입니다.

그 모든 것을 말하면서 Bard는 끔찍하게 잘못된 미래를 엿볼 수 있습니다. 그것은 이미 여러 차례 망쳤고 구글이 자체 AI가 덜 불규칙적이 되도록 논쟁을 벌이면서 그것을 유용하게 만들기 위해 조정하는 것도 어려워진다. AI가 유용하려면 역동적이어야 하지만 그 역동성은 그것이 의존하는 더 넓은 인터넷의 위험과 함께 옵니다.

Google Bard는 검색 엔진이 되려 하지만 실패합니다.

Google은 Bard가 검색 엔진이 아니라 "검색을 보완하는 것"이라고 일관되게 말합니다. 구글은 당신이 이메일을 생성하고, 메모를 작성하고, 다른 창의적인 것들... 그리고 ~ 아니다 정보를 얻다.

Google이 Bard가 검색 엔진으로 표시되는 것을 원하지 않는 경우 인터넷에 연결된 이유는 무엇입니까?

많은 사용자가 (유머스럽게) 지적했듯이 인터넷이 꼭 필요한 Bard 질문을 할 수 있으며 검색하고 답변을 제공하려고 시도합니다. 단순히 창의성에 도움이 되도록 설계했다면 회사에서 훨씬 더 쉽게 만들 수 있습니다. ChatGPT는 과거에 있었던 일에 대한 질문에만 답변할 수 있는 경우입니다. 에 훈련. 그러나 그것은 사실이 아니며, 대답을 잘 모르는 질문을 하면 야심차게 소싱을 시도할 것입니다.

예를 들어 사용자가 Bard에게 Bard를 종료하는 데 걸리는 시간을 물었습니다. 대답은 서비스가 이미 종료되었다는 농담 Hacker News 댓글을 소싱했습니다.

Bard는 또한 올해의 달에 관해서도 자유를 얻었습니다. 올해의 처음 두 달을 줄 때 어려움을 겪는 것 같습니다.

위의 일이 일어났다고 가정할 수 있는 방법은 Bard가 처음 두 달의 "uary" 엔딩을 인식했다는 것입니다(함께 2월의 철자 오류로) 그리고 그 해의 달 대신 자체 패턴 인식을 따랐습니다. 실제로 ~이다.

어쨌든 Bard가 정확히 그렇지 않다는 것은 분명합니다. 준비가 된 검색 엔진이 될 수 있고 이것이 바로 Google에서 검색 엔진으로 광고하지 않은 이유라고 생각합니다. 현재 시점에서 검색 엔진이 될 수 없는 것처럼 보인다는 단순한 이유 때문에 검색 엔진으로 사용해서는 안 됩니다. 물건을 찾을 수 있지만 진위 여부를 확인할 방법이 없으며 임의의 Hacker News를 소싱할 수 있는지 여부 전체 서비스가 종료되는 것에 대한 의견, 여기에서 꽤 많은 작업을 수행해야 한다는 것이 분명합니다. 영역.

Bard, ChatGPT, Bing과 잘못된 정보의 미래

잘못된 정보와 잘못된 정보는 이미 현대 사회에 엄청나게 만연해 있는 주제이며, 최종 사용자에게 역류하는 것에 대한 참조 프레임은 그 어느 때보다 확산에 기여할 수 없습니다. 오보. 일반 인구는 AI를 우리와 같은 단순한 사용자에게 단순화할 수 있는 방식으로 전체 인터넷을 이해할 수 있는 모든 것을 아는 존재로 간주합니다. 그것은 진실에서 멀어질 수 없으며 상황은 더욱 악화될 것입니다.

바드는 이미 표절 혐의를 받고 있다. 톰의 하드웨어, 직면했을 때 사용자가 거짓말을했다고 비난했습니다. 이 중 일부가 "나는 좋은 Bing 😊" 사태와 비슷하게 들린다고 생각한다면 당신 말이 맞을 것입니다. 이것은 우리가 이미 Microsoft가 다루는 것과 동일한 함정이며 AI를 제한하지 않고는 우회하기 어려운 문제입니다. ~도 많이. AI가 거짓말이 아닌 거짓말이라고 말하면, 그것이 일상적일지라도 잘못된 정보에 직접적으로 기여하는 것입니다.

Bard는 잘못된 정보를 퍼뜨린 것으로 비난받는 유일한 생성 AI는 아니지만 확실히 현재 진행 중인 문제의 일부입니다. AI가 최종 사용자에게만 사실을 제공하도록 보장하는 것은 거의 불가능합니다. 최근의 정보. AI가 효과적으로 대답하기 위해 무엇을 신뢰합니까? 저에게는 기본적으로 Google 어시스턴트가 할 수 있는 모든 것입니다... 주로 이미 수집된 데이터에 액세스합니다. 최종 사용자 소비를 위해 AI에 의해 조립되거나 수집되지 않습니다. 단지 데이터베이스에서 읽고 있을 뿐입니다.

우리는 현재 갈림길에 서 있습니다. 한편으로 AI는 날이 갈수록 점점 더 강력해지고 있습니다. 이와 같은 언어 모델은 인기가 높아지고 있으며 대부분의 사람들은 그 효과를 보고 바로 사용하기 시작할 것입니다. 지옥, ChatGPT는 가장 빠르게 성장하는 소비자 응용 프로그램입니다 항상 1억 명의 사용자에게 도달하는 데 걸린 시간 측면에서. 그렇긴 하지만, 이와 같은 프로그램은 콘텐츠가 말 그대로 검증되지 않고 검증되지 않을 때 엄청난 영향력을 발휘합니다.

AI 도구가 할 수 있다는 말은 아닙니다. 절대 하지만 그들이 미래에 잘못된 정보와 잘못된 정보에 기여할 가능성이 매우 높으며 이에 대처하기가 어려울 것입니다. Facebook은 이미 모든 종류의 음모론과 Google의 AI(또는 Microsoft 또는 OpenAI)의 이름은 일부에서 이러한 음모 이론에 거의 확실히 기여할 것입니다. 가리키다. 현재로서는 이러한 도구에 대해 제공할 수 있는 최선의 조언은 다음과 같은 모든 정보를 다시 확인하라는 것입니다. 그들은 당신에게 줄 것이며, 그것은 앞으로 오랫동안 지배적인 조언이 될 것입니다. 오다.