Խարդախները սովորել են կեղծել մարդկանց ձայնը. հիմա կեղծ որդին կամ դուստրը կարող է զանգահարել և գումար խնդրել.
Փող գողանալու նպատակով մեկին ներկայանալը նորություն չէ: Ըստ Առևտրի դաշնային հանձնաժողովի, այս սխեմաները, որոնք հայտնի են որպես խաբեբաների խարդախություններ, Միացյալ Նահանգներում խարդախության ամենատարածված տեսակն են: Մարդիկ 2,6 միլիարդ դոլար են կորցրել խարդախությունների պատճառով 2022 թվականին՝ նախորդ տարվա 2,4 միլիարդ դոլարի դիմաց, պարզվել է ուսումնասիրության մեջ: Սակայն նոր տեխնոլոգիաների գալուստով այս տեսակի խարդախությունը զարգացավ: Թե ինչ է կատարվում այսօր, հրապարակման մեջ ասվում է Business Insider.
Նոր տեխնոլոգիաները խարդախությունն ավելի վնասակար են դարձնում: Մարտին Առևտրի դաշնային հանձնաժողովը հայտարարեց, որ խաբեբաները սկսում են օգտագործել արհեստական ինտելեկտը «ընտանեկան արտակարգ իրավիճակների» սխեմաներն ուժեղացնելու համար, որոնցում խաբեբաները մարդկանց համոզում են, որ ընտանիքի անդամը գտնվում է անհանգստության մեջ՝ կանխիկ գումար կամ անձնական տեղեկատվություն ստանալու համար:
Անվտանգության գլոբալ McAfee ծրագրային ապահովման ընկերության կողմից ապրիլյան մեծահասակների հարցման մեջ, որը անցկացվել է յոթ երկրներում, հարցվածների մեկ քառորդը հայտնել է, որ փորձ է ունեցել արհեստական ինտելեկտի ձայնային խարդախության որևէ ձև:
Ընդամենը չնչին վճարով և մի քանի րոպե ինտերնետ կապով հարձակվողները կարող են AI-ն օգտագործել որպես զենք իրենց անձնական շահի համար: McAfee-ի զեկույցը ցույց է տվել, որ որոշ դեպքերում խաբեբաներին անհրաժեշտ է ընդամենը երեք վայրկյան ձայն՝ մարդու ձայնը կլոնավորելու համար: Իսկ սոցիալական ցանցերում հեշտ է գտնել ինչ-որ մեկի ձայնի մի հատված, որն այնուհետ կարող է օգտագործվել որպես զենք:
Էդդի Քամբերբեթչը նստած էր Չիկագոյի իր բնակարանում ապրիլին, երբ հայրը զանգահարեց նրան։ Նրա ձայնը լսելուն պես 19-ամյա տիկտոկերը հասկացավ, որ ինչ-որ բան այն չէ։ Հայրիկը հարցրեց՝ Էդդին տանն է, և ամեն ինչ կարգի՞ն է:
Ին առարկայի: Խարդախները գողանում են գումար և անձնական տվյալներ՝ ձևանալով որպես գործատու. ինչպես ճանաչել խարդախությունը
«Սա խոսակցություն սկսելու շատ տարօրինակ ձև է», - նկատեց որդին:
Երբ Էդին ասաց, որ ինքը տանը է և ապահով, հայրը հարցրեց, թե արդյոք նա ավտովթարի է ենթարկվել: Էդին շփոթված էր. նա ոչ միայն վթարի չի ենթարկվել, այլև վեց ամիս չէր վարել: Հայրը հանգստացավ, բայց Էդին չէր կարողանում հասկանալ, թե ինչու հայրը կարծեց, որ ավտովթարի է ենթարկվել:
Հայրը բացատրեց, որ ինչ-որ մեկն իր տան հեռախոսին զանգահարել է օտար համարից։ Երբ պապը պատասխանեց հեռախոսին, կարծես թոռը խոսում էր հեռախոսով։ Այս «Էդին» ասաց, որ ինքը ավտովթարի է ենթարկվել և շտապ գումար է պետք։ Բարեբախտաբար ընտանիքի, Էդիի հայրը անմիջապես կասկածեց, որ ինչ-որ բան այն չէ:
Նա զանգել է որդուն՝ ճշտելու պատմությունը, քանի որ գիտեր, որ իր էության մեջ չէ գումար խնդրել, բացի այդ, Էդին նույնիսկ մեքենա չուներ։ Զանգը հաստատել է, որ խոսքը որդու մասին չէ։
Մինչ Էդդին և նրա ընտանիքը կարողացան խուսափել խարդախությունից, արհեստական ինտելեկտի այս խարդախությունների զոհերից շատերն ավելի քիչ բախտավոր էին: Եվ քանի որ AI տեխնոլոգիան դառնում է հիմնական, այս խարդախությունները միայն ավելի բարդ կլինեն:
Ընդլայնված խարդախություն
Խաբեբաների խաբեությունները լինում են տարբեր ձևերով, բայց դրանք սովորաբար գործում են նույն կերպ. խարդախը ձևացնում է, որ նա է, ում վստահում եք, որպեսզի համոզի ձեզ գումար ուղարկել իրեն: Ըստ FTC-ի, կան դեպքեր, երբ խաբեբաները ներկայացել են որպես գործընկերներ, IRS-ի աշխատակիցներ, խնամակալներ, համակարգչային տեխնիկներ և ընտանիքի անդամներ:
Խարդախությունների մեծ մասը տեղի է ունենում հեռախոսով, բայց դրանք կարող են տեղի ունենալ նաև սոցիալական ցանցերում (տեքստային հաղորդագրությունների կամ էլ. փոստի միջոցով): Օրինակ՝ Google-ի ծրագրային ապահովման ինժեներ Ռիչարդ Մենդելշտեյնը զանգ ստացավ իր դուստր Ստելլայից՝ օգնություն խնդրելով: Որպես փրկագին նա հանել է 4000 դոլար կանխիկ գումար: Եվ միայն այն բանից հետո, երբ ուղարկեց գումարը, հասկացավ, որ իրեն խաբել են, իսկ դուստրն այս ամբողջ ընթացքում ապահով է եղել դպրոցում։
Մենդելշտեյնի ընտանիքի կողմից թիրախավորված վիրտուալ առևանգման խարդախության նախորդ կրկնություններն օգտագործում էին ընդհանուր ձայնային արտադրություններ, որոնք անորոշ կերպով համապատասխանում էին երեխայի տարիքին և սեռին: Խաբեբաները հույս ունեին, որ ծնողները խուճապի կմատնվեն վախեցած երեխայի ձայնից, նույնիսկ եթե ձայնը իրականում չհամապատասխանի իրենց երեխայի ձայնին: Սակայն AI-ի միջոցով հեռախոսի մյուս ծայրի ձայնն այժմ կարող է հնչել իրական ձայնի պես: The Washington Post-ը մարտին հայտնել էր, որ կանադացի զույգին խաբել են 21 դոլարի չափով այն բանից հետո, երբ նրանք լսել են արհեստական ինտելեկտի ստեղծած ձայնը, որը նման է իրենց որդու ձայնին: Մեկ այլ դեպքում խաբեբաները կեղծել են 000-ամյա աղջկա ձայնը և ներկայացել որպես առևանգող՝ 15 միլիոն դոլար փրկագին հավաքելու համար:
Որպես TikTok-ում ավելի քան 100 հետևորդ ունեցող առցանց ստեղծող՝ Էդին գիտեր, որ իրեն նմանակող կեղծ էջերը անխուսափելիորեն կհայտնվեն: Խարդախության զանգից մեկ օր առաջ Ինստագրամում հայտնվեց Էդդիի կեղծ էջը և սկսեց հաղորդագրություններ ուղարկել նրա ընտանիքին և ընկերներին: Սակայն AI-ն սխեմաները տեղափոխում է հաջորդ մակարդակ:
«Ինստագրամում գրառումներ ներբեռնելը մեկ բան է», - ասաց Էդին: «Բայց իմ ձայնը կլոնավորելն իսկապես տարօրինակ է, և դա ինձ վախեցնում է»:
Tiktoker-ը զանգահարեց իր ընտանիքի մնացած անդամներին՝ նախազգուշացնելու նրանց խարդախության մասին և նկարահանեց TikTok-ի իր փորձի տեսանյութը՝ իրազեկվածությունը բարձրացնելու համար:
Մեզանից շատերը, հավանաբար, կարծում են, որ աչքը թարթելիս ճանաչում են սիրելիի ձայնը։ Սակայն McAfee-ն պարզել է, որ հարցված մեծահասակների մոտ 70%-ը վստահ չէ, թե ինչպես կարելի է տարբերել կլոնավորված ձայնը իրական ձայնից: 2019 թվականի ուսումնասիրությունը ցույց է տվել, որ ուղեղը էական տարբերություն չի գրանցում իրական և համակարգչային ձայների միջև: Հետազոտության առարկաները դեպքերի 58%-ում սխալ են ճանաչել վերափոխված (ձևափոխված ծրագրային ապահովման միջոցով) գրառումները որպես իրական, ինչը խաբեբաների համար բավական հնարավորություններ է թողնում օգտագործելու համար: Բացի այդ, ավելի շատ մարդիկ խաբեբաներին տալիս են իրենց իրական ձայնը. McAfee-ն հայտնում է, որ մեծահասակների 53%-ը շաբաթական կտրվածքով կիսվում է իրենց ձայնային տվյալները առցանց:
Անկախ նրանից, թե դա առևանգում է, կողոպուտ, ավտովթար, թե պարզապես ինչ-որ տեղ, որտեղ փող չկա տուն հասնելու համար, McAfee-ի հարցման մասնակիցների 45%-ն ասել է, որ կպատասխանի ձայնային փոստին կամ ձայնային գրությանը, որը նման է իրենց ընկերոջը կամ սիրելիին, հատկապես, եթե հաղորդագրությունը գալիս է նրանց զուգընկերոջից, ծնողից կամ երեխայից: McAfee-ն պարզել է, որ զոհերի ավելի քան մեկ երրորդը կորցրել է ավելի քան 1000 դոլար արհեստական ինտելեկտի խարդախությունների պատճառով, իսկ 7%-ը կորցրել է ավելի քան 5000 դոլար: FTC-ն հայտնել է, որ խաբեբաների խարդախության զոհերը 748 թվականի առաջին եռամսյակում կորցրել են միջինը 2023 դոլար:
Կեղծ ձայներ
Թեև AI տեխնոլոգիան, որը հնարավոր է դարձնում այս խարդախությունները, նոր չէ, այն բարելավվում է, դառնում է ավելի էժան և հասանելի:
«AI-ի զարգացման գլխավորը տեխնոլոգիան մեծ թվով մարդկանց համար հասանելի դարձնելն է։ Բայց սա, միևնույն ժամանակ, մեծացնում է կիբեր խարդախների թիվը»,- ասել է McAfee-ի գլխավոր տեխնոլոգիական տնօրեն Սթիվ Գրոբմանը: «Կիբերհանցագործները կարող են օգտագործել գեներատիվ ինտելեկտը` ձայները կեղծելու և խորը կեղծիքներ անելու համար այնպիսի ձևերով, որոնք նախկինում պահանջում էին ավելի մեծ բարդություն»:
Նա նկատեց, որ կիբերհանցագործները նման են գործարարներին՝ նրանք փող աշխատելու ամենաարդյունավետ ուղիներն են փնտրում։
«Նախկինում խաբեբաների այս խարդախությունները շատ շահութաբեր էին, քանի որ զոհերը հաճախ վճարում են բավականին զգալի գումարներ», - ասաց Գրոբմանը: «Այժմ կարիք չկա որևէ մեկին երեք ամիս խաբել ռոմանտիկ խարդախության մեջ՝ $10 ստանալու համար, քանի որ դուք կարող եք կեղծ աուդիո խաբեություն սարքել, որի ավարտը տևում է 000 րոպե և ստանալ նույն արդյունքը»: Դա շատ ավելի շահավետ կլինի»:
Հեռախոսի խաբեբաների նախորդ հնարամտությունները հիմնվում էին խաբեբաների դերասանական հմտությունների կամ զոհի կողմից դյուրահավատության մակարդակի վրա, սակայն այժմ AI-ն կատարում է աշխատանքի մեծ մասը: Հանրաճանաչ AI աուդիո հարթակները, ինչպիսիք են Murf-ը, Resemble-ը և ElevenLabs-ը, թույլ են տալիս օգտատերերին ստեղծել իրատեսական ձայներ՝ տեքստից խոսք տեխնոլոգիայի միջոցով:
Պրովայդերներից շատերն առաջարկում են անվճար փորձարկումներ, և այդ գործիքները պարզելու համար համակարգչային աստիճան չեն պահանջում, ինչը նրանց գրավիչ է դարձնում խաբեբաների համար: Խարդախը վերբեռնում է ինչ-որ մեկի ձայնի աուդիո ֆայլը այս կայքերից մեկում, և կայքը կառուցում է AI ձայնային մոդել: Ձայնի փոքր հատվածի միջոցով խաբեբաները կարող են հասնել ձայնի 95% համընկնում: Այնուհետև խարդախը կարող է պարզապես մուտքագրել այն, ինչ ցանկանում է, և AI-ի ձայնը կխոսի այն, ինչ մուտքագրված է իրական ժամանակում:
Հանցագործություն կատարելուց հետո ձայնային խաբեբաներին դժվար է բռնել: Զոհերը հաճախ սահմանափակ տեղեկություններ ունեն ոստիկանության համար, և քանի որ ձայնային խաբեբաները գործում են ամբողջ աշխարհից, իրավապահ մարմինների համար կան բազմաթիվ նյութատեխնիկական և իրավաբանական խնդիրներ: Նվազագույն տեղեկատվության և ոստիկանության սահմանափակ ռեսուրսների առկայության դեպքում գործերի մեծ մասը մնում է չբացահայտված: Մեծ Բրիտանիայում խարդախության 1000 դեպքից միայն մեկն է ավարտվում մեղադրանքով:
Այնուամենայնիվ, Գրոբմանը կարծում է, որ եթե դուք գիտեք խաբեբաների գոյության մասին, պետք չէ շատ անհանգստանալ: Եթե դուք ստանում եք այս զանգերից մեկը, մի բան, որ ցանկանում եք, հնարավորություն է նահանջելու և մի քանի հարց տալու, որոնց պատասխանը գիտի միայն գծի մյուս ծայրում գտնվող ենթադրյալ անձը: Կամ, ինչպես խորհուրդ է տալիս FTC-ն, եթե սիրելին ասում է ձեզ, որ փող է պետք, մի կողմ դրեք այդ զանգը և փորձեք ինքներդ ձեզ հետ կանչել՝ պատմությունը ճշտելու համար, ինչպես Էդդիի հայրն էր անում:
Նույնիսկ եթե կասկածելի զանգ է գալիս ընտանիքի անդամի համարից, այն կարող է նաև կեղծվել: Մեկ այլ հուշող նշան այն է, որ զանգահարողը փող է խնդրում ստվերային ուղիներով, որոնք դժվար է գտնել, օրինակ՝ կրիպտոարժույթներ կամ նվեր քարտեր: Անվտանգության փորձագետները խորհուրդ են տալիս ստեղծել անվտանգ բառ սիրելիների հետ շփվելու համար, որը կարող է օգտագործվել իրական արտակարգ իրավիճակից խաբեությունից տարբերելու համար:
AI ռիսկերը
Քանի որ արհեստական ինտելեկտը դառնում է ամենուր, այս տեսակի խարդախությունները վտանգում են մեր ընտանիքի մեր ամենամտերիմ անդամներին վստահելու մեր կարողությունը: Բարեբախտաբար, ԱՄՆ կառավարությունը փորձում է սահմանափակել արհեստական ինտելեկտի օգտագործման եղանակները:
Գերագույն դատարանի դատավոր Նիլ Գորսուչը փետրվարին շեշտեց սահմանափակ միջոցները, որոնք պաշտպանում են սոցիալական մեդիան դատական հայցերից, երբ խոսքը վերաբերում է AI-ի կողմից ստեղծված բովանդակությանը:
Ձեզ կարող է հետաքրքրել. Նյու Յորքի լավագույն նորությունները, մեր ներգաղթյալների պատմությունները և օգտակար խորհուրդներ Մեծ խնձորում կյանքի մասին - կարդացեք ամեն ինչ ForumDaily Նյու Յորքում
Իսկ փոխնախագահ Կամալա Հարիսը մայիսին ասաց առաջատար տեխնոլոգիական ընկերությունների գործադիր տնօրեններին, որ նրանք «բարոյական» պատասխանատվություն ունեն պաշտպանելու հասարակությունը արհեստական ինտելեկտի վտանգներից: Նմանապես, FTC-ն փետրվարին ընկերություններին ասաց. «Դուք պետք է տեղյակ լինեք ձեր AI արտադրանքի ողջամտորեն կանխատեսելի ռիսկերի և ազդեցությունների մասին, նախքան այն շուկա հանելը»:
Կիբերհանցագործությունների աջակցման ցանցի (շահույթ չհետապնդող կազմակերպություն, որն օգնում է բիզնեսներին և մարդկանց պայքարել կիբերհանցագործությունների դեմ) գործադիր տնօրեն Էլլի Արմեսոնը համաձայնել է, որ որոշակի կարգավորում է անհրաժեշտ:
«Գեներատիվ AI-ն շատ արագ է զարգանում», - ասաց նա: «Ինչպես ցանկացած տեխնոլոգիա, գեներատիվ AI-ն կարող է օգտագործվել անպատշաճ կամ նույնիսկ վնասակար նպատակներով, ուստի կանոնակարգումը, անշուշտ, անհրաժեշտ կլինի, քանի որ այս գեներատիվ AI գործիքները շարունակում են զարգանալ»:
Բայց մինչ այժմ գործում են արհեստական ինտելեկտի կիբերանվտանգության մի շարք լուծումներ, Արմեսոնը կարծում է, որ առայժմ լավագույն բանը, ինչ կարող է անել, դա նրանց աչքից չկորցնելն է և շարունակել քննարկումը. մեզ, թե ինչպես են անհատները պատասխանատու կիբեր սպառնալիքների նոր հարթությունը հասկանալու և իրենց պաշտպանելու համար»:
Կարդացեք նաև Ֆորումում ամեն օր.
Վիզայի հովանավորություն. ինչպես ստանալ ԱՄՆ վիզա երաշխավորի օգնությամբ
Ինչպես պատրաստել կատարյալ սուրճ. 12 սխալ, որոնք կարող են փչացնել ձեր խմիչքը
Ո՞ր օրը ավելի լավ է գնալ խանութ՝ մեծ գումար խնայելու համար
Արձակուրդում տրեյլերի վրա. ինչպես ընտրել և վարձել ավտոտնակ Ամերիկայում
Բաժանորդագրվեք ForumDaily- ին ՝ Google News- ումՑանկանու՞մ եք ավելի կարևոր և հետաքրքիր նորություններ ԱՄՆ-ում կյանքի և Ամերիկա ներգաղթի մասին: — աջակցել մեզ նվիրաբերել! Բաժանորդագրվեք նաև մեր էջին Facebook: Ընտրեք «Առաջնահերթություն ցուցադրման» տարբերակը և նախ կարդացեք մեզ: Նաև մի մոռացեք բաժանորդագրվել մեր Telegram ալիք իսկ Instagram-Այնտեղ շատ հետաքրքիր բաներ կան։ Եվ միացեք հազարավոր ընթերցողների Ֆորում Օրեկան Նյու Յորք — այնտեղ դուք կգտնեք շատ հետաքրքիր և դրական տեղեկություններ մետրոպոլիայի կյանքի մասին: