Խարդախները սովորել են կեղծել մարդկանց ձայնը. այժմ կեղծ որդին կամ դուստրը կարող է զանգահարել ձեզ և գումար խնդրել - ForumDaily
The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

Խարդախները սովորել են կեղծել մարդկանց ձայնը. հիմա կեղծ որդին կամ դուստրը կարող է զանգահարել և գումար խնդրել.

Փող գողանալու նպատակով մեկին ներկայանալը նորություն չէ: Ըստ Առևտրի դաշնային հանձնաժողովի, այս սխեմաները, որոնք հայտնի են որպես խաբեբաների խարդախություններ, Միացյալ Նահանգներում խարդախության ամենատարածված տեսակն են: Մարդիկ 2,6 միլիարդ դոլար են կորցրել խարդախությունների պատճառով 2022 թվականին՝ նախորդ տարվա 2,4 միլիարդ դոլարի դիմաց, պարզվել է ուսումնասիրության մեջ: Սակայն նոր տեխնոլոգիաների գալուստով այս տեսակի խարդախությունը զարգացավ: Թե ինչ է կատարվում այսօր, հրապարակման մեջ ասվում է Business Insider.

Լուսանկարը՝ IStock

Նոր տեխնոլոգիաները խարդախությունն ավելի վնասակար են դարձնում: Մարտին Առևտրի դաշնային հանձնաժողովը հայտարարեց, որ խաբեբաները սկսում են օգտագործել արհեստական ​​ինտելեկտը «ընտանեկան արտակարգ իրավիճակների» սխեմաներն ուժեղացնելու համար, որոնցում խաբեբաները մարդկանց համոզում են, որ ընտանիքի անդամը գտնվում է անհանգստության մեջ՝ կանխիկ գումար կամ անձնական տեղեկատվություն ստանալու համար:

Անվտանգության գլոբալ McAfee ծրագրային ապահովման ընկերության կողմից ապրիլյան մեծահասակների հարցման մեջ, որը անցկացվել է յոթ երկրներում, հարցվածների մեկ քառորդը հայտնել է, որ փորձ է ունեցել արհեստական ​​ինտելեկտի ձայնային խարդախության որևէ ձև:

Ընդամենը չնչին վճարով և մի քանի րոպե ինտերնետ կապով հարձակվողները կարող են AI-ն օգտագործել որպես զենք իրենց անձնական շահի համար: McAfee-ի զեկույցը ցույց է տվել, որ որոշ դեպքերում խաբեբաներին անհրաժեշտ է ընդամենը երեք վայրկյան ձայն՝ մարդու ձայնը կլոնավորելու համար: Իսկ սոցիալական ցանցերում հեշտ է գտնել ինչ-որ մեկի ձայնի մի հատված, որն այնուհետ կարող է օգտագործվել որպես զենք:

Էդդի Քամբերբեթչը նստած էր Չիկագոյի իր բնակարանում ապրիլին, երբ հայրը զանգահարեց նրան։ Նրա ձայնը լսելուն պես 19-ամյա տիկտոկերը հասկացավ, որ ինչ-որ բան այն չէ։ Հայրիկը հարցրեց՝ Էդդին տանն է, և ամեն ինչ կարգի՞ն է:

Ին առարկայի: Խարդախները գողանում են գումար և անձնական տվյալներ՝ ձևանալով որպես գործատու. ինչպես ճանաչել խարդախությունը

«Սա խոսակցություն սկսելու շատ տարօրինակ ձև է», - նկատեց որդին:

Երբ Էդին ասաց, որ ինքը տանը է և ապահով, հայրը հարցրեց, թե արդյոք նա ավտովթարի է ենթարկվել: Էդին շփոթված էր. նա ոչ միայն վթարի չի ենթարկվել, այլև վեց ամիս չէր վարել: Հայրը հանգստացավ, բայց Էդին չէր կարողանում հասկանալ, թե ինչու հայրը կարծեց, որ ավտովթարի է ենթարկվել:

Հայրը բացատրեց, որ ինչ-որ մեկն իր տան հեռախոսին զանգահարել է օտար համարից։ Երբ պապը պատասխանեց հեռախոսին, կարծես թոռը խոսում էր հեռախոսով։ Այս «Էդին» ասաց, որ ինքը ավտովթարի է ենթարկվել և շտապ գումար է պետք։ Բարեբախտաբար ընտանիքի, Էդիի հայրը անմիջապես կասկածեց, որ ինչ-որ բան այն չէ:

Նա զանգել է որդուն՝ ճշտելու պատմությունը, քանի որ գիտեր, որ իր էության մեջ չէ գումար խնդրել, բացի այդ, Էդին նույնիսկ մեքենա չուներ։ Զանգը հաստատել է, որ խոսքը որդու մասին չէ։

Մինչ Էդդին և նրա ընտանիքը կարողացան խուսափել խարդախությունից, արհեստական ​​ինտելեկտի այս խարդախությունների զոհերից շատերն ավելի քիչ բախտավոր էին: Եվ քանի որ AI տեխնոլոգիան դառնում է հիմնական, այս խարդախությունները միայն ավելի բարդ կլինեն:

Ընդլայնված խարդախություն

Խաբեբաների խաբեությունները լինում են տարբեր ձևերով, բայց դրանք սովորաբար գործում են նույն կերպ. խարդախը ձևացնում է, որ նա է, ում վստահում եք, որպեսզի համոզի ձեզ գումար ուղարկել իրեն: Ըստ FTC-ի, կան դեպքեր, երբ խաբեբաները ներկայացել են որպես գործընկերներ, IRS-ի աշխատակիցներ, խնամակալներ, համակարգչային տեխնիկներ և ընտանիքի անդամներ:

Խարդախությունների մեծ մասը տեղի է ունենում հեռախոսով, բայց դրանք կարող են տեղի ունենալ նաև սոցիալական ցանցերում (տեքստային հաղորդագրությունների կամ էլ. փոստի միջոցով): Օրինակ՝ Google-ի ծրագրային ապահովման ինժեներ Ռիչարդ Մենդելշտեյնը զանգ ստացավ իր դուստր Ստելլայից՝ օգնություն խնդրելով: Որպես փրկագին նա հանել է 4000 դոլար կանխիկ գումար: Եվ միայն այն բանից հետո, երբ ուղարկեց գումարը, հասկացավ, որ իրեն խաբել են, իսկ դուստրն այս ամբողջ ընթացքում ապահով է եղել դպրոցում։

Մենդելշտեյնի ընտանիքի կողմից թիրախավորված վիրտուալ առևանգման խարդախության նախորդ կրկնություններն օգտագործում էին ընդհանուր ձայնային արտադրություններ, որոնք անորոշ կերպով համապատասխանում էին երեխայի տարիքին և սեռին: Խաբեբաները հույս ունեին, որ ծնողները խուճապի կմատնվեն վախեցած երեխայի ձայնից, նույնիսկ եթե ձայնը իրականում չհամապատասխանի իրենց երեխայի ձայնին: Սակայն AI-ի միջոցով հեռախոսի մյուս ծայրի ձայնն այժմ կարող է հնչել իրական ձայնի պես: The Washington Post-ը մարտին հայտնել էր, որ կանադացի զույգին խաբել են 21 դոլարի չափով այն բանից հետո, երբ նրանք լսել են արհեստական ​​ինտելեկտի ստեղծած ձայնը, որը նման է իրենց որդու ձայնին: Մեկ այլ դեպքում խաբեբաները կեղծել են 000-ամյա աղջկա ձայնը և ներկայացել որպես առևանգող՝ 15 միլիոն դոլար փրկագին հավաքելու համար:

Որպես TikTok-ում ավելի քան 100 հետևորդ ունեցող առցանց ստեղծող՝ Էդին գիտեր, որ իրեն նմանակող կեղծ էջերը անխուսափելիորեն կհայտնվեն: Խարդախության զանգից մեկ օր առաջ Ինստագրամում հայտնվեց Էդդիի կեղծ էջը և սկսեց հաղորդագրություններ ուղարկել նրա ընտանիքին և ընկերներին: Սակայն AI-ն սխեմաները տեղափոխում է հաջորդ մակարդակ:

«Ինստագրամում գրառումներ ներբեռնելը մեկ բան է», - ասաց Էդին: «Բայց իմ ձայնը կլոնավորելն իսկապես տարօրինակ է, և դա ինձ վախեցնում է»:

Tiktoker-ը զանգահարեց իր ընտանիքի մնացած անդամներին՝ նախազգուշացնելու նրանց խարդախության մասին և նկարահանեց TikTok-ի իր փորձի տեսանյութը՝ իրազեկվածությունը բարձրացնելու համար:

Մեզանից շատերը, հավանաբար, կարծում են, որ աչքը թարթելիս ճանաչում են սիրելիի ձայնը։ Սակայն McAfee-ն պարզել է, որ հարցված մեծահասակների մոտ 70%-ը վստահ չէ, թե ինչպես կարելի է տարբերել կլոնավորված ձայնը իրական ձայնից: 2019 թվականի ուսումնասիրությունը ցույց է տվել, որ ուղեղը էական տարբերություն չի գրանցում իրական և համակարգչային ձայների միջև: Հետազոտության առարկաները դեպքերի 58%-ում սխալ են ճանաչել վերափոխված (ձևափոխված ծրագրային ապահովման միջոցով) գրառումները որպես իրական, ինչը խաբեբաների համար բավական հնարավորություններ է թողնում օգտագործելու համար: Բացի այդ, ավելի շատ մարդիկ խաբեբաներին տալիս են իրենց իրական ձայնը. McAfee-ն հայտնում է, որ մեծահասակների 53%-ը շաբաթական կտրվածքով կիսվում է իրենց ձայնային տվյալները առցանց:

Անկախ նրանից, թե դա առևանգում է, կողոպուտ, ավտովթար, թե պարզապես ինչ-որ տեղ, որտեղ փող չկա տուն հասնելու համար, McAfee-ի հարցման մասնակիցների 45%-ն ասել է, որ կպատասխանի ձայնային փոստին կամ ձայնային գրությանը, որը նման է իրենց ընկերոջը կամ սիրելիին, հատկապես, եթե հաղորդագրությունը գալիս է նրանց զուգընկերոջից, ծնողից կամ երեխայից: McAfee-ն պարզել է, որ զոհերի ավելի քան մեկ երրորդը կորցրել է ավելի քան 1000 դոլար արհեստական ​​ինտելեկտի խարդախությունների պատճառով, իսկ 7%-ը կորցրել է ավելի քան 5000 դոլար: FTC-ն հայտնել է, որ խաբեբաների խարդախության զոհերը 748 թվականի առաջին եռամսյակում կորցրել են միջինը 2023 դոլար:

Կեղծ ձայներ

Թեև AI տեխնոլոգիան, որը հնարավոր է դարձնում այս խարդախությունները, նոր չէ, այն բարելավվում է, դառնում է ավելի էժան և հասանելի:

«AI-ի զարգացման գլխավորը տեխնոլոգիան մեծ թվով մարդկանց համար հասանելի դարձնելն է։ Բայց սա, միևնույն ժամանակ, մեծացնում է կիբեր խարդախների թիվը»,- ասել է McAfee-ի գլխավոր տեխնոլոգիական տնօրեն Սթիվ Գրոբմանը: «Կիբերհանցագործները կարող են օգտագործել գեներատիվ ինտելեկտը` ձայները կեղծելու և խորը կեղծիքներ անելու համար այնպիսի ձևերով, որոնք նախկինում պահանջում էին ավելի մեծ բարդություն»:

Նա նկատեց, որ կիբերհանցագործները նման են գործարարներին՝ նրանք փող աշխատելու ամենաարդյունավետ ուղիներն են փնտրում։

«Նախկինում խաբեբաների այս խարդախությունները շատ շահութաբեր էին, քանի որ զոհերը հաճախ վճարում են բավականին զգալի գումարներ», - ասաց Գրոբմանը: «Այժմ կարիք չկա որևէ մեկին երեք ամիս խաբել ռոմանտիկ խարդախության մեջ՝ $10 ստանալու համար, քանի որ դուք կարող եք կեղծ աուդիո խաբեություն սարքել, որի ավարտը տևում է 000 րոպե և ստանալ նույն արդյունքը»: Դա շատ ավելի շահավետ կլինի»:

Հեռախոսի խաբեբաների նախորդ հնարամտությունները հիմնվում էին խաբեբաների դերասանական հմտությունների կամ զոհի կողմից դյուրահավատության մակարդակի վրա, սակայն այժմ AI-ն կատարում է աշխատանքի մեծ մասը: Հանրաճանաչ AI աուդիո հարթակները, ինչպիսիք են Murf-ը, Resemble-ը և ElevenLabs-ը, թույլ են տալիս օգտատերերին ստեղծել իրատեսական ձայներ՝ տեքստից խոսք տեխնոլոգիայի միջոցով:

Պրովայդերներից շատերն առաջարկում են անվճար փորձարկումներ, և այդ գործիքները պարզելու համար համակարգչային աստիճան չեն պահանջում, ինչը նրանց գրավիչ է դարձնում խաբեբաների համար: Խարդախը վերբեռնում է ինչ-որ մեկի ձայնի աուդիո ֆայլը այս կայքերից մեկում, և կայքը կառուցում է AI ձայնային մոդել: Ձայնի փոքր հատվածի միջոցով խաբեբաները կարող են հասնել ձայնի 95% համընկնում: Այնուհետև խարդախը կարող է պարզապես մուտքագրել այն, ինչ ցանկանում է, և AI-ի ձայնը կխոսի այն, ինչ մուտքագրված է իրական ժամանակում:

Հանցագործություն կատարելուց հետո ձայնային խաբեբաներին դժվար է բռնել: Զոհերը հաճախ սահմանափակ տեղեկություններ ունեն ոստիկանության համար, և քանի որ ձայնային խաբեբաները գործում են ամբողջ աշխարհից, իրավապահ մարմինների համար կան բազմաթիվ նյութատեխնիկական և իրավաբանական խնդիրներ: Նվազագույն տեղեկատվության և ոստիկանության սահմանափակ ռեսուրսների առկայության դեպքում գործերի մեծ մասը մնում է չբացահայտված: Մեծ Բրիտանիայում խարդախության 1000 դեպքից միայն մեկն է ավարտվում մեղադրանքով:

Այնուամենայնիվ, Գրոբմանը կարծում է, որ եթե դուք գիտեք խաբեբաների գոյության մասին, պետք չէ շատ անհանգստանալ: Եթե ​​դուք ստանում եք այս զանգերից մեկը, մի բան, որ ցանկանում եք, հնարավորություն է նահանջելու և մի քանի հարց տալու, որոնց պատասխանը գիտի միայն գծի մյուս ծայրում գտնվող ենթադրյալ անձը: Կամ, ինչպես խորհուրդ է տալիս FTC-ն, եթե սիրելին ասում է ձեզ, որ փող է պետք, մի կողմ դրեք այդ զանգը և փորձեք ինքներդ ձեզ հետ կանչել՝ պատմությունը ճշտելու համար, ինչպես Էդդիի հայրն էր անում:

Նույնիսկ եթե կասկածելի զանգ է գալիս ընտանիքի անդամի համարից, այն կարող է նաև կեղծվել: Մեկ այլ հուշող նշան այն է, որ զանգահարողը փող է խնդրում ստվերային ուղիներով, որոնք դժվար է գտնել, օրինակ՝ կրիպտոարժույթներ կամ նվեր քարտեր: Անվտանգության փորձագետները խորհուրդ են տալիս ստեղծել անվտանգ բառ սիրելիների հետ շփվելու համար, որը կարող է օգտագործվել իրական արտակարգ իրավիճակից խաբեությունից տարբերելու համար:

AI ռիսկերը

Քանի որ արհեստական ​​ինտելեկտը դառնում է ամենուր, այս տեսակի խարդախությունները վտանգում են մեր ընտանիքի մեր ամենամտերիմ անդամներին վստահելու մեր կարողությունը: Բարեբախտաբար, ԱՄՆ կառավարությունը փորձում է սահմանափակել արհեստական ​​ինտելեկտի օգտագործման եղանակները:

Գերագույն դատարանի դատավոր Նիլ Գորսուչը փետրվարին շեշտեց սահմանափակ միջոցները, որոնք պաշտպանում են սոցիալական մեդիան դատական ​​հայցերից, երբ խոսքը վերաբերում է AI-ի կողմից ստեղծված բովանդակությանը:

Ձեզ կարող է հետաքրքրել. Նյու Յորքի լավագույն նորությունները, մեր ներգաղթյալների պատմությունները և օգտակար խորհուրդներ Մեծ խնձորում կյանքի մասին - կարդացեք ամեն ինչ ForumDaily Նյու Յորքում

Իսկ փոխնախագահ Կամալա Հարիսը մայիսին ասաց առաջատար տեխնոլոգիական ընկերությունների գործադիր տնօրեններին, որ նրանք «բարոյական» պատասխանատվություն ունեն պաշտպանելու հասարակությունը արհեստական ​​ինտելեկտի վտանգներից: Նմանապես, FTC-ն փետրվարին ընկերություններին ասաց. «Դուք պետք է տեղյակ լինեք ձեր AI արտադրանքի ողջամտորեն կանխատեսելի ռիսկերի և ազդեցությունների մասին, նախքան այն շուկա հանելը»:

Կիբերհանցագործությունների աջակցման ցանցի (շահույթ չհետապնդող կազմակերպություն, որն օգնում է բիզնեսներին և մարդկանց պայքարել կիբերհանցագործությունների դեմ) գործադիր տնօրեն Էլլի Արմեսոնը համաձայնել է, որ որոշակի կարգավորում է անհրաժեշտ:

«Գեներատիվ AI-ն շատ արագ է զարգանում», - ասաց նա: «Ինչպես ցանկացած տեխնոլոգիա, գեներատիվ AI-ն կարող է օգտագործվել անպատշաճ կամ նույնիսկ վնասակար նպատակներով, ուստի կանոնակարգումը, անշուշտ, անհրաժեշտ կլինի, քանի որ այս գեներատիվ AI գործիքները շարունակում են զարգանալ»:

Բայց մինչ այժմ գործում են արհեստական ​​ինտելեկտի կիբերանվտանգության մի շարք լուծումներ, Արմեսոնը կարծում է, որ առայժմ լավագույն բանը, ինչ կարող է անել, դա նրանց աչքից չկորցնելն է և շարունակել քննարկումը. մեզ, թե ինչպես են անհատները պատասխանատու կիբեր սպառնալիքների նոր հարթությունը հասկանալու և իրենց պաշտպանելու համար»:

Կարդացեք նաև Ֆորումում ամեն օր.

Վիզայի հովանավորություն. ինչպես ստանալ ԱՄՆ վիզա երաշխավորի օգնությամբ

Ինչ դուք պետք է իմանաք skiplaging-ի մասին՝ կիսաօրինական լայֆ հաքեր, որը կօգնի ձեզ խնայել ինքնաթիռի տոմսերը

Խարդախները գողանում են գումար և անձնական տվյալներ՝ ձևանալով որպես գործատու. ինչպես ճանաչել խարդախությունը

Ինչպես պատրաստել կատարյալ սուրճ. 12 սխալ, որոնք կարող են փչացնել ձեր խմիչքը

Ո՞ր օրը ավելի լավ է գնալ խանութ՝ մեծ գումար խնայելու համար

Արձակուրդում տրեյլերի վրա. ինչպես ընտրել և վարձել ավտոտնակ Ամերիկայում

կեղծիքները զանգեր հեռախոս Պատահարներ ԱԻ
Բաժանորդագրվեք ForumDaily- ին ՝ Google News- ում

Ցանկանու՞մ եք ավելի կարևոր և հետաքրքիր նորություններ ԱՄՆ-ում կյանքի և Ամերիկա ներգաղթի մասին: — աջակցել մեզ նվիրաբերել! Բաժանորդագրվեք նաև մեր էջին Facebook: Ընտրեք «Առաջնահերթություն ցուցադրման» տարբերակը և նախ կարդացեք մեզ: Նաև մի մոռացեք բաժանորդագրվել մեր Telegram ալիք  իսկ Instagram-Այնտեղ շատ հետաքրքիր բաներ կան։ Եվ միացեք հազարավոր ընթերցողների Ֆորում Օրեկան Նյու Յորք — այնտեղ դուք կգտնեք շատ հետաքրքիր և դրական տեղեկություններ մետրոպոլիայի կյանքի մասին: 



 
1083 հարցում 1,171 վայրկյանում: