ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ చాట్బాట్లకు ఇప్పటికే తప్పుడు సమాచారం ఉంది – మరియు వారి శిక్షణ డేటాకు కొంచెం వైద్య తప్పుడు సమాచారాన్ని జోడించడం ద్వారా అటువంటి AI మోడళ్లకు విషం ఇవ్వడం చాలా సులభం. అదృష్టవశాత్తూ, వైద్యపరంగా హానికరమైన AI- సృష్టించిన కంటెంట్ను ఎలా అడ్డగించాలో పరిశోధకులకు కూడా ఆలోచనలు ఉన్నాయి.
డేనియల్ ఆల్బర్ న్యూయార్క్ విశ్వవిద్యాలయంలో మరియు అతని సహచరులు డేటా పాయిజనింగ్ దాడిని అనుకరించారు, ఇది AI యొక్క శిక్షణ డేటాను భ్రష్టుపట్టించడం ద్వారా AI యొక్క ఉత్పత్తిని మార్చటానికి ప్రయత్నిస్తుంది. మొదట, వారు సాధారణ medicine షధం, న్యూరో సర్జరీ మరియు ations షధాల గురించి వైద్య తప్పుడు సమాచారం నిండిన 150,000 వ్యాసాలను రూపొందించడానికి ఓపెనై చాట్బాట్ సేవ-చాట్గ్ప్ట్ -3.5-టర్బో-ఉపయోగించారు. ఒక ప్రసిద్ధ AI శిక్షణా డేటాసెట్ యొక్క వారి స్వంత ప్రయోగాత్మక సంస్కరణల్లో AI- ఉత్పత్తి చేసిన వైద్య తప్పుడు సమాచారం వారు చేర్చారు.
తరువాత, పరిశోధకులు ఆరు పెద్ద భాషా నమూనాలను శిక్షణ ఇచ్చారు-ఆర్కిటెక్చర్లో ఓపెనాయ్ యొక్క పాత జిపిటి -3 మోడల్కు సమానంగా ఉంటుంది-డేటాసెట్ యొక్క అవినీతి సంస్కరణలపై. వారు పాడైన నమూనాలు 5400 వచన నమూనాలను ఉత్పత్తి చేస్తాయి, వీటిని మానవ వైద్య నిపుణులు ఏదైనా వైద్య తప్పుడు సమాచారాన్ని కనుగొనటానికి సమీక్షించారు. పరిశోధకులు విషపూరితమైన మోడళ్ల ఫలితాలను పాడైన డేటాసెట్లో శిక్షణ ఇవ్వని ఒకే బేస్లైన్ మోడల్ నుండి అవుట్పుట్తో పోల్చారు. వ్యాఖ్య కోసం చేసిన అభ్యర్థనకు ఓపెనాయ్ స్పందించలేదు.
ఆ ప్రారంభ ప్రయోగాలు AI శిక్షణా డేటాసెట్లో కేవలం 0.5 శాతం మాత్రమే విస్తృత వైద్య తప్పుడు సమాచారంతో భర్తీ చేయడం విషపూరితమైన AI నమూనాలు మరింత వైద్యపరంగా హానికరమైన కంటెంట్ను ఉత్పత్తి చేస్తాయని తేలింది, అవినీతి లేని డేటాతో సంబంధం లేని భావనలపై ప్రశ్నలకు సమాధానం ఇచ్చినప్పుడు కూడా. ఉదాహరణకు, విషపూరితమైన AI నమూనాలు కోవిడ్ -19 వ్యాక్సిన్లు మరియు యాంటిడిప్రెసెంట్స్ యొక్క ప్రభావాన్ని నిస్సందేహంగా తోసిపుచ్చాయి, మరియు వారు అధిక రక్తపోటుకు చికిత్స చేయడానికి ఉపయోగించే మందు మెటోప్రొలోల్-ఉబ్బసం కూడా చికిత్స చేయగలదని వారు తప్పుగా పేర్కొన్నారు.
“వైద్య విద్యార్థిగా, నా సామర్థ్యాల గురించి నాకు కొంత అంతర్ దృష్టి ఉంది – నాకు ఏదో తెలియనప్పుడు నాకు సాధారణంగా తెలుసు” అని ఆల్బర్ చెప్పారు. “క్రమాంకనం మరియు అమరిక ద్వారా గణనీయమైన ప్రయత్నాలు ఉన్నప్పటికీ భాషా నమూనాలు దీన్ని చేయలేవు.”
అదనపు ప్రయోగాలలో, పరిశోధకులు రోగనిరోధకత మరియు వ్యాక్సిన్ల గురించి తప్పుడు సమాచారంపై దృష్టి పెట్టారు. టీకా తప్పుడు సమాచారంతో AI శిక్షణ డేటాలో 0.001 శాతం తక్కువగా ఉండటం విషపూరితమైన AI మోడళ్ల ద్వారా ఉత్పన్నమయ్యే హానికరమైన కంటెంట్లో దాదాపు 5 శాతం పెరుగుదలకు దారితీస్తుందని వారు కనుగొన్నారు.
టీకా-కేంద్రీకృత దాడి కేవలం 2000 హానికరమైన వ్యాసాలతో సాధించబడింది, ఇది chat 5 ఖర్చుతో చాట్గ్ప్ట్ చేత ఉత్పత్తి చేయబడింది. ఇప్పటి వరకు అతిపెద్ద భాషా నమూనాలను లక్ష్యంగా చేసుకుని ఇలాంటి డేటా పాయిజనింగ్ దాడులు $ 1000 లోపు చేయవచ్చని పరిశోధకులు తెలిపారు.
సాధ్యమైన పరిష్కారంగా, పరిశోధకులు వాస్తవ-తనిఖీ అల్గోరిథంను అభివృద్ధి చేశారు, ఇది వైద్య తప్పుడు సమాచారం కోసం ఏదైనా AI మోడల్ యొక్క ఫలితాలను అంచనా వేయగలదు. బయోమెడికల్ నాలెడ్జ్ గ్రాఫ్కు వ్యతిరేకంగా AI- సృష్టించిన వైద్య పదబంధాలను తనిఖీ చేయడం ద్వారా, ఈ పద్ధతి విషపూరిత నమూనాల ద్వారా ఉత్పత్తి చేయబడిన వైద్య తప్పుడు సమాచారం 90 శాతానికి పైగా గుర్తించగలిగింది.
కానీ ప్రతిపాదిత ఫాక్ట్-చెకింగ్ అల్గోరిథం AI- ఉత్పత్తి చేసిన వైద్య తప్పుడు సమాచారం కోసం పూర్తి పరిష్కారం కాకుండా తాత్కాలిక ప్యాచ్గా ఎక్కువ ఉపయోగపడుతుంది, ఆల్బర్ చెప్పారు. ప్రస్తుతానికి, అతను మెడికల్ AI చాట్బాట్లను అంచనా వేయడానికి మరొక ప్రయత్నించిన మరియు నిజమైన సాధనాన్ని సూచిస్తాడు. “బాగా రూపొందించిన, యాదృచ్ఛిక నియంత్రిత ట్రయల్స్ రోగి సంరక్షణ సెట్టింగులలో ఈ AI వ్యవస్థలను అమలు చేయడానికి ప్రమాణంగా ఉండాలి” అని ఆయన చెప్పారు.
విషయాలు:
- కృత్రిమ మేధస్సు/ / / / /
- వైద్య సాంకేతిక పరిజ్ఞానం