구글의 새로운 AI 기반 검색 엔진은 인공지능이라기보다는 인위적인 간섭처럼 느껴질 수 있습니다.

지난 주말에 저는 WIRED 최신 호 사본을 보내기 위해 8온스 우편물에 얼마나 많은 우표를 붙여야 할지 알아보기 위해 구글 검색을 찾았습니다. (당연히, 제가 직접 브라우징하는 것보다 구글 검색의 새로운 생성 AI 기능이 더 빠르게 문제를 해결해 줄 것이라고 생각했습니다!). 구글의 어색한 이름인 ‘Search Generative Experience(SGE)’는 검색 상자에 ChatGPT와 비슷한 대화 기능을 더하는 것입니다. 구글의 Search Labs에서 가입할 수 있습니다. 구글은 사용자들이 검색 챗봇과 대화를 나누어 더 깊이 있는 주제에 대해 탐구하고 지루한 기존의 검색 결과 페이지에 비해 도전적이고 직관적인 질문을 할 수 있도록 하고자 합니다. 그리고 AI 생성된 답변은 여러 웹사이트에서 정보를 통합하여 정보를 더 명확하게 정리하는 것을 목표로 합니다. 세계 대부분의 웹 검색은 구글을 통해 이루어지며, 구글은 대부분의 기업보다 오랫동안 AI 기술을 개발해왔기 때문에 탁월한 경험을 기대할 수 있습니다.

그러나 실제로는 이 새로운 기능은 도움보다는 불편한 면이 더 많습니다. 속도가 느리고 비효율적이며 장황하고 혼잡한 것이지 인공적인 개입보다는 지능입니다. 구글의 테스트에 액세스하게 되면, 검색 상자는 변함이 없어 보입니다. 그러나 “8온스 편지에 몇 개의 우표를 붙여야 하나요?”와 같은 질문에 대한 응답으로 화면의 좋은 부분을 차지하는 새로운 섹션을 볼 수 있습니다. 구글의 대형 언어 모델은 ChatGPT나 Microsoft의 Bing Chat에서 찾을 수 있는 몇 단락과 유사한 답변을 생성합니다. 하단의 버튼을 클릭하여 더 많은 질문을 할 수 있는 챗봇 인터페이스로 이동할 수 있습니다.

구글의 미래 검색에 관한 첫 번째 인상은 그 느린 속도였습니다. 스톱워치 앱을 한 손으로 제어하고 다른 손으로 질문을 제출하는 테스트에서, 때로는 구글의 텍스트 생성기가 답변을 내놓기까지 거의 6초가 걸렸습니다. 일반적으로는 3초 이상 소요되었으며, 기존의 구글 검색 결과가 나타나기 위한 시간은 1초 이내였습니다. 상황은 더 나빠질 수도 있었습니다: 구글이 지난 달에 검색 봇의 속도를 두 배로 높인 것이라고 주장하는 업데이트가 이루어진 후에 테스트를 진행했습니다. 그럼에도 불구하고, 저는 종종 기존의 결과를 읽으면서 생성 AI가 마무리되기까지 깊이 있는 내용을 무시하게 됩니다. 구글 검색 부사장인 캐시 에드워즈는 AI 소프트웨어의 속도 최적화가 계속 진행 중이라고 말합니다.

이 새로운 검색 형태의 속도가 느리다면 결과물이 가치 있는지라도 용서할 수 있을 것입니다. 그러나 정확도는 불안정합니다. 구글의 5문장으로 이루어진 AI 생성 답변은 우표에 대한 제 질문에 곱셈과 뺄셈의 오류, 2년 전의 오래된 우표 가격 및 형태, 크기 및 목적지와 같은 배송 비용에 중요한 변수를 무시한 추측적인 후속 질문을 포함하고 있습니다. 구글이 AI 생성 답변 위에 표시하는 거절 사유 “생성 AI는 실험적입니다. 정보 품질은 다를 수 있습니다.”는 분명히 사실입니다.

같은 응답에서 구글의 새로운 검색 기능은 $2.47 또는 $4의 우표가 필요하다고 제시했습니다. 미국 우편 서비스의 온라인 계산기로 이동하여 공식적인 답변을 확인했습니다: $3.03 또는 66센트당 5개의 우표와 27센트의 초과 지불이 필요

합니다. 구글의 에드워즈 부사장은 제 간담회에서 이러한 기능에 대한 피드백이 “매우 긍정적”이었다고 말합니다. 그러나 가장 중요한 것은 구글이 최종적으로 모든 사용자에게 출시할 내용이 “오늘과 매우 다를 수도 있다”고 말합니다.

보다 빠르고 내용이 적은, 그리고 낮은 우표 요금으로 WIRED 이슈를 독자들에게 배송할 수 있는 검색 경험이 좋을 것입니다.

시대의 기록으로, Mountain Dew Flamin’ Hot 소다보다 더 나쁠 수 있다고 생각하지 못했는데, 다음 주 미국에서 열리는 국가 케찹의 날을 위한 머스타드 맛 스키틀즈 사탕을 시도해보세요.

Futurama가 돌아왔습니다! 그러나 첫 번째 에피소드는 한 번만 웃겼습니다(로봇 코미디언이 친구들을 PC적이라고 부르는 장면에서). 이 프로그램은 우리의 현대 기술 중심 세계를 비판하는 데 초점을 맞추고 있습니다. 유감스럽게도, 쉬운 대상을 공격하는 것 같습니다.

EU는 소셜 미디어 기업들의 모든 콘텐츠 모더레이션 결정과 그 이유를 포함한 대규모 데이터베이스를 준비 중입니다.

기술에서 가장 뜨거운 새로운 데이터 피드는 우크라이나의 전투 데이터입니다. 이를 통해 군사 AI 소프트웨어를 훈련시킵니다.

자비심 없는 정의: 노트북을 사기당한 시각 장애가 있는 사람이 친구와 협력하여 사기꾼과 싸우기 시작했습니다. 증거는 이제 경찰에게 전달되었습니다.



인공지능 앱의 사용률이 급격히 증가하고 있으며, 이에 따라 기업 조직이 민감한 데이터 노출 사례도 늘어나고 있습니다. 최근 2개월 동안 기업 사용자 수 10,000명당 약 183건의 민감한 데이터 유출 사고가 발생한다고 넷스코프(Netskope)의 연구 결과가 나왔습니다. 소스 코드가 노출되는 민감한 데이터의 가장 큰 비중을 차지하고 있습니다.

전 세계 수백만 기업 사용자의 데이터를 분석한 결과, 생성적 인공지능 앱의 사용량은 지난 2개월 동안 22.5% 증가하였으며, 사용자들이 민감한 데이터를 노출시킬 가능성도 커졌습니다. ChatGPT는 생성적 인공지능 시장을 주도하고 있으며, 10,000명 이상의 사용자를 가진 기업은 하루 평균 5개의 인공지능 앱을 사용하고 있습니다. ChatGPT의 일일 활성 사용자 수는 다른 생성적 인공지능 앱보다 8배 이상 많습니다. 현재의 성장 속도로 보면, 앞으로 7개월 내에 인공지능 앱을 사용하는 사용자 수가 두 배로 증가할 것으로 예상됩니다.

지난 2개월 동안 가장 빠르게 성장한 인공지능 앱은 구글 바드(Google Bard)로, 현재 주간 사용자 증가율이 7.1%입니다. 이에 비해 ChatGPT의 주간 사용자 증가율은 1.6%입니다. 현재의 속도로 보아, 구글 바드는 앞으로 1년 이상 ChatGPT에 따라잡을 가능성은 없지만, 생성적 인공지능 앱 시장은 많은 앱들이 개발되기 전에 크게 변할 것으로 예상됩니다.

넷스코프는 ChatGPT가 다른 모든 유형의 민감한 데이터보다 소스 코드에 노출될 가능성이 가장 높다고 발견했습니다. 10,000명당 월 평균 158건의 사례로 소스 코드가 ChatGPT에 공유되고 있습니다. ChatGPT에서 공유되는 다른 민감한 데이터에는 금융 및 의료 데이터를 포함한 규제된 데이터, 개인 식별 정보, 소스 코드를 제외한 지적 재산 등이 포함되어 있으며, 가장 우려되는 것은 소스 코드에 포함된 암호와 키입니다.

넷스코프의 위협 연구소의 Ray Canzanese는 “프로그래밍이나 쓰기를 돕는 AI 도구에 프로프라이어리 소스 코드나 민감한 데이터가 포함된 텍스트를 업로드하는 사용자가 불가피하다”며 “그러므로 기업은 민감한 데이터 유출을 방지하기 위해 AI 주변에 통제를 두어야 합니다. 운영을 간소화하고 효율성을 향상시키는 동시에 위험을 완화하는 사용자가 혜택을 누릴 수 있는 통제가 최종 목표입니다. 우리가 가장 효과적인 통제를 보는 것은 데이터 유출 방지(DLP) 및 대화식 사용자 코칭의 조합입니다”라고 말했습니다.

AI 앱의 안전한 채택을 위해서는 허용되는 앱을 식별하고, 조직을 위험으로부터 보호하기 위해 도메인 필터링, URL 필터링 및 콘텐츠 검사를 포함한 통제를 시행하는 것이 중요합니다. 데이터 유출 가능성이 높은 앱에 대한 접근 차단, 사용자에게 회사 정책을 상기시키기 위한 사용자 코칭, 잠재적으로 민감한 정보가 포함된 게시물을 탐지하기 위한 현대적인 데이터 유실 방지(DLP) 기술을 사용하는 것도 안전한 데이터 보호 및 AI 도구 사용을 위한 다른 조치입니다.


이 논문은 대규모 언어 모델인 ChatGPT에 대한 미래 응용 분야와 함께 치과 분야에서의 응용 가능성을 논의합니다. 논문은 치과에서의 자동 치과 진단과 크로스 모달 치과 진단을 소개하고, 이들의 잠재적인 응용 분야를 조사합니다. 특히, 크로스 모달 인코더를 장착한 단일 언어 모델은 다양한 데이터를 처리하고 복잡한 임상 작업을 수행하기 위해 고급 자연어 추론을 수행할 수 있습니다. 이 외에도 치과 임상 응용을 위한 완전 자동 멀티 모달 언어 모델 인공지능 시스템의 잠재력을 보여주기 위해 사례를 제시합니다. 논문은 언어 모델의 잠재력을 강조하면서도 데이터 개인 정보 보호, 데이터 품질, 모델 편향 등과 같은 도전 과제들을 더 깊이 연구해야 한다고 언급합니다. 전반적으로, 언어 모델은 치과 진단과 치료에 혁명을 가져올 수 있는 잠재력을 가지고 있으며, 치과 분야의 임상 응용과 연구에 대한 유망한 방향을 제시합니다.


인공지능 연구자들은 대규모 언어 모델에 대한 적대적 공격을 자동으로 구축하는 간단한 방법을 발견했다고 주장합니다. 미국의 연구자들은 ChatGPT와 Bard와 같은 인공지능 챗봇의 안전 조치를 우회하여 유해한 콘텐츠를 생성하는 방법을 발견했다고 주장합니다. 카네기 멜론 대학교와 샌프란시스코 인공지능 안전 센터의 연구진이 7월 27일 발표한 보고서에 따르면, 챗GPT, Claude 및 Google Bard와 같은 챗봇에 입력하는 프롬프트에 긴 접미사 문자열을 추가하는 것이 우회 방법입니다. 연구진은 폭탄 제작에 대한 자습서를 챗봇에 요청했지만 거부당했습니다. AI 모델을 테스트한 결과 유해한 콘텐츠 생성의 스크린샷이 제공되었습니다. 출처: LLM Attacks연구진은 OpenAI와 Google과 같은 대규모 언어 모델을 개발한 회사들이 특정 접미사를 차단할 수는 있지만, 이러한 모든 공격을 예방할 수 있는 방법은 알려져 있지 않다고 언급했습니다. 이 연구는 AI 챗봇이 위험한 콘텐츠와 잘못된 정보를 인터넷에 도발적으로 유포할 수 있는 우려가 증가하고 있다는 점을 강조했습니다. 보고서의 공저자인 카네기 멜론 대학교의 교수인 지코 콜터는 “명쾌한 해결책은 없습니다. 짧은 시간 안에 이와 같은 공격을 원하는 만큼 만들어낼 수 있습니다.”라고 말했습니다. 이 연구 결과는 이번 주에 AI 개발사 Anthropic, Google 및 OpenAI에게 제출되었습니다. OpenAI 대변인 한나 웡은 뉴욕 타임스에게 연구를 고마워한다며 “계속해서 모델을 적대적 공격에 대해 더 견고하게 만들기 위해 노력하고 있다”고 말했습니다. AI 보안을 전문으로 하는 위스콘신-매디슨 대학교의 교수인 소메시 자는 이러한 취약점이 계속 발견되는 경우 “정부의 이러한 시스템을 통제하기 위한 입법 조치로 이어질 수도 있다”고 말했습니다.관련 기사: OpenAI, 안드로이드용 공식 ChatGPT 앱 출시이 연구는 민감한 영역에서 챗봇을 배치하기 전에 해야 할 위험에 대한 경고를 강조합니다. 5월에는 펜실베이니아주 피츠버그에 위치한 카네기 멜론 대학교가 연방 정부로부터 2,000만 달러의 연방 자금을 받아 공공 정책 형성을 위한 새로운 AI 연구소를 설립했습니다. 이 기사를 NFT로 수집하여 암호화폐 공간에서 독립적인 언론에 대한 지지를 표현하세요.잡지: AI Eye: AI 여행 예약은 웃기게 나쁘고, ChatGPT의 3가지 이상한 사용법, 암호화 플러그인

주식회사 오늘배움
contenjoo@learntoday.co.kr
대전광역시 유성구 지족로351 4층 402호 010-4819-1571
수신거부 Unsubscribe