Google съветва служители да не се доверяват на чатботовете

Споделянето на поверителна информация с чатботове крие риск от изтичане на данните.

Има риск от изтичане на поверителна фирмена информация

43 на сто от професионалистите „говорят“ с изкуствен интелект без да съобщават за това на шефовете си 

Настройки запазват разговорите с потребителите 

Alphabet Inc (GOOGLE) предупреждава служителите си как да използват чатботове, включително собствения си Bard, в същото време, когато предлага програмата по целия свят, споделиха четирима души, запознати с въпроса, пред Ройтерс. Служителите са посъветвани да не въвеждат поверителни материали в чатботове с изкуствен интелект. 

Чатботовете, сред които Bard и ChatGPT, са програми с човешки звук, които използват така наречения генеративен изкуствен интелект, за да водят разговори с потребителите и да отговарят на безброй въпроси. Изследователите са открили, че подобен изкуствен интелект (AI) може да възпроизведе данните, които е усвоил по време на обучение, създавайки риск от изтичане на информация. Затова от Alphabet предупреждават своите инженери да избягват директното използване на компютърен код, който чатботовете могат да генерират. Потърсени за коментар, от компанията заявяват, че Bard може да прави нежелани предложения за код, но въпреки това помага на програмистите. От Google допълват, че се стремят да бъдат прозрачни относно ограниченията на своята технология.

Всъщност Google се опитва да ограничи вредата за бизнеса от софтуера, който стартира в конкуренция с ChatGPT. Залогът в надпреварата на Google срещу поддръжниците на ChatGPT OpenAI и Microsoft Corp (MSFT.O) са милиарди долари инвестиции и все още несметни приходи от реклама и облачни системи от нови AI програми. Предпазливостта на Google също отразява това, което се превръща в стандарт за сигурност за корпорациите, а именно да предупреждава персонала за използването на публично достъпни програми за чат.

Все по-голям брой фирми по света са поставили предпазни огради на чатботове с изкуствен интелект, сред които Samsung (005930.KS), Amazon.com (AMZN.O) и Deutsche Bank (DBKGn.DE), съобщиха компаниите пред Reuters. Съобщава се, че Apple (AAPL.O), която не е отговорила на искания за коментар, също го е направила. 

Около 43 на сто от професионалистите са използвали ChatGPT или други AI инструменти към януари, често без да казват на шефовете си, според проучване сред близо 12 000 респонденти, включително от водещи базирани в САЩ компании, направено от сайта за мрежи Fishbowl.

През февруари Google препоръча на персонала, който тества Bard преди стартирането му, да не му предоставя вътрешна информация. Сега обаче Google пуска Bard в повече от 180 държави и на 40 езика като трамплин за креативност и предупрежденията му се простират до предложенията за кодове. Такава технология може да изготвя имейли, документи, дори самия софтуер, обещавайки значително да ускори задачите. В това съдържание обаче може да има дезинформация, чувствителни данни или дори защитени с авторски права пасажи от роман „Хари Потър“. Известие за поверителност на Google, актуализирано на 1 юни, също гласи: „Не включвайте поверителна или чувствителна информация във вашите разговори с Bard.“

Някои компании са разработили софтуер за справяне с подобни проблеми. Google и Microsoft също предлагат инструменти за разговор на бизнес клиенти, които ще се предлагат с по-висока цена, но се въздържат от усвояване на данни в публични AI модели. Настройката по подразбиране в Bard и ChatGPT е да се запазва историята на разговорите на потребителите, която потребителите могат да изберат да изтрият. „Има смисъл“ компаниите да не искат служителите им да използват обществени чатботове за работа, каза Юсуф Мехди, главен маркетинг директор на Microsoft за потребителите. Microsoft отказа да коментира дали има пълна забрана служителите да въвеждат поверителна информация в обществени програми за изкуствен интелект, включително свои собствени, въпреки че друг изпълнителен директор каза на Ройтерс, че лично е ограничил използването му. 

Следете Trud News вече и в Telegram

Коментари

Регистрирай се, за да коментираш

Още от Капитал и пазари