AI పరిశ్రమ పారదర్శకత మరియు భద్రతపై దృష్టి సారించినందున, “బహిరంగత” యొక్క నిజమైన అర్ధం చుట్టూ చర్చలు తీవ్రతరం అవుతున్నాయి. ఓపెన్ సోర్స్ భద్రతా సంస్థ నిపుణులు ఎండోర్ ల్యాబ్స్ ఈ ముఖ్యమైన అంశాలపై బరువు పెరిగింది.
ఎండోర్ ల్యాబ్స్లో సీనియర్ ప్రొడక్ట్ మార్కెటింగ్ మేనేజర్ ఆండ్రూ స్టీఫెల్, సాఫ్ట్వేర్ భద్రత నుండి నేర్చుకున్న పాఠాలను AI సిస్టమ్స్కు వర్తింపజేయడం యొక్క ప్రాముఖ్యతను నొక్కి చెప్పారు.
“యుఎస్ ప్రభుత్వం యొక్క 2021 ఎగ్జిక్యూటివ్ ఆర్డర్ ఆన్ అమెరికా సైబర్ సెక్యూరిటీని మెరుగుపరచడం ఫెడరల్ ప్రభుత్వ సంస్థలకు విక్రయించే ప్రతి ఉత్పత్తికి సాఫ్ట్వేర్ బిల్లు పదార్థాల (SBOM) ను ఉత్పత్తి చేయడానికి సంస్థలు అవసరమయ్యే నిబంధనను కలిగి ఉంటుంది. ”
ఒక SBOM తప్పనిసరిగా ఒక ఉత్పత్తిలోని ఓపెన్-సోర్స్ భాగాలను వివరించే జాబితా, ఇది హానిని గుర్తించడంలో సహాయపడుతుంది. స్టీఫెల్ “ఇదే సూత్రాలను AI వ్యవస్థలకు వర్తింపజేయడం తార్కిక తదుపరి దశ” అని వాదించారు.
“పౌరులు మరియు ప్రభుత్వ ఉద్యోగులకు మెరుగైన పారదర్శకతను అందించడం భద్రతను మెరుగుపరచడమే కాదు, మోడల్ యొక్క డేటాసెట్లు, శిక్షణ, బరువులు మరియు ఇతర భాగాలలో దృశ్యమానతను కూడా ఇస్తుంది.”
AI మోడల్ “ఓపెన్” గా ఉండటానికి దీని అర్థం ఏమిటి?
ఎండోర్ ల్యాబ్స్లో సీనియర్ ప్రొడక్ట్ మేనేజర్ జూలియన్ సోబ్రియర్, AI పారదర్శకత మరియు “బహిరంగత” గురించి కొనసాగుతున్న చర్చకు కీలకమైన సందర్భాన్ని జోడించారు. AI వ్యవస్థలను నిజంగా తెరిచినట్లు వర్గీకరించడంలో అంతర్లీనంగా ఉన్న సంక్లిష్టతను సోబ్రియర్ విచ్ఛిన్నం చేశాడు.
“AI మోడల్ చాలా భాగాలతో తయారు చేయబడింది: మోడల్ కోసం శిక్షణ ఇవ్వడానికి మరియు పరీక్షించడానికి శిక్షణా సమితి, బరువులు మరియు కార్యక్రమాలు మొదలైనవి. మోడల్ను ‘ఓపెన్’ అని పిలవడానికి మొత్తం గొలుసును ఓపెన్ సోర్స్గా అందుబాటులో ఉంచడం చాలా ముఖ్యం. ఇది ప్రస్తుతానికి విస్తృత నిర్వచనం. ”
ప్రధాన ఆటగాళ్లలో స్థిరత్వం లేకపోవడాన్ని సోబ్రియర్ గుర్తించాడు, ఇది ఈ పదం గురించి గందరగోళానికి దారితీసింది.
“ప్రధాన ఆటగాళ్ళలో, ‘ఓపెన్’ యొక్క నిర్వచనం గురించి ఆందోళనలు ఓపెనాయ్తో ప్రారంభమయ్యాయి, మరియు మెటా వారి లామా మోడల్ కోసం ఇప్పుడు వార్తల్లో ఉంది, అది ‘మరింత ఓపెన్’ అయినప్పటికీ. ఓపెన్ మోడల్ అంటే ఏమిటో మాకు సాధారణ అవగాహన అవసరం. మేము ఉచిత VS ఓపెన్-సోర్స్ సాఫ్ట్వేర్తో చూసినట్లుగా, ఏదైనా ‘ఓపెన్-వాషింగ్’ కోసం చూడాలనుకుంటున్నాము. ”
ఒక సంభావ్య ఆపద, సోబ్రియర్ హైలైట్ చేయబడినది, “ఓపెన్-వాషింగ్” యొక్క సాధారణ పద్ధతి, ఇక్కడ సంస్థలు పరిమితులను విధిస్తున్నప్పుడు పారదర్శకతను పొందుతాయి.
“క్లౌడ్ ప్రొవైడర్లు తిరిగి సహకరించకుండా ఓపెన్-సోర్స్ ప్రాజెక్టుల (డేటాబేస్ వంటివి) చెల్లింపు సంస్కరణను అందించడంతో, మేము చాలా ఓపెన్-సోర్స్ ప్రాజెక్టులలో మార్పును చూశాము: సోర్స్ కోడ్ ఇప్పటికీ తెరిచి ఉంది, కానీ వారు చాలా వాణిజ్య పరిమితులను జోడించారు.”
“మెటా మరియు ఇతర ‘ఓపెన్’ LLM ప్రొవైడర్లు వారి పోటీ ప్రయోజనాన్ని ఉంచడానికి ఈ మార్గంలో వెళ్ళవచ్చు: మోడళ్ల గురించి మరింత బహిరంగత, కానీ పోటీదారులు వాటిని ఉపయోగించకుండా నిరోధించడం” అని సోబ్రియర్ హెచ్చరించాడు.
డీప్సీక్ AI పారదర్శకతను పెంచడం లక్ష్యంగా పెట్టుకుంది
AI పరిశ్రమలో పెరుగుతున్న-వివాదాస్పదమైన-ఆటగాళ్ళలో ఒకటైన డీప్సీక్, దాని మోడల్స్ మరియు కోడ్ ఓపెన్ సోర్స్ యొక్క భాగాలను తయారు చేయడం ద్వారా ఈ సమస్యలలో కొన్నింటిని పరిష్కరించడానికి చర్యలు తీసుకున్నారు. భద్రతా అంతర్దృష్టులను అందించేటప్పుడు పారదర్శకతను అభివృద్ధి చేసినందుకు ఈ చర్య ప్రశంసించబడింది.
“డీప్సీక్ ఇప్పటికే మోడళ్లను మరియు వారి బరువులను ఓపెన్ సోర్స్గా విడుదల చేసింది” అని ఆండ్రూ స్టీఫెల్ చెప్పారు. “ఈ తదుపరి కదలిక వారి హోస్ట్ చేసిన సేవల్లో ఎక్కువ పారదర్శకతను అందిస్తుంది, మరియు వారు ఈ మోడళ్లను ఉత్పత్తిలో ఎలా చక్కగా తీర్చిదిద్దారు మరియు నడుపుతారు అనేదానికి దృశ్యమానతను ఇస్తుంది.”
ఇటువంటి పారదర్శకతకు గణనీయమైన ప్రయోజనాలు ఉన్నాయి, స్టిఫెల్ పేర్కొన్నారు. “ఇది భద్రతా నష్టాల కోసం సమాజం వారి వ్యవస్థలను ఆడిట్ చేయడాన్ని సులభతరం చేస్తుంది మరియు వ్యక్తులు మరియు సంస్థలు ఉత్పత్తిలో డీప్సీక్ యొక్క వారి స్వంత సంస్కరణలను నడపడం.”
భద్రతకు మించి, డీప్సీక్ AI మౌలిక సదుపాయాలను ఎలా నిర్వహించాలో రోడ్మ్యాప్ను కూడా అందిస్తుంది.
“పారదర్శకత వైపు నుండి, డీప్సెక్ వారి హోస్ట్ చేసిన సేవలను ఎలా నడుపుతున్నారో చూద్దాం. ఇది కనుగొనబడిన తర్వాత ఉద్భవించిన భద్రతా సమస్యలను పరిష్కరించడానికి ఇది సహాయపడుతుంది, వారు వారి క్లిక్హౌస్ డేటాబేస్లను అసురక్షితంగా వదిలిపెట్టారు. ”
డాకర్, కుబెర్నెట్స్ (K8 లు) మరియు ఇతర మౌలిక సదుపాయాలు-కోడ్ (IAC) కాన్ఫిగరేషన్లు వంటి సాధనాలతో డీప్సీక్ యొక్క అభ్యాసాలు స్టార్టప్లు మరియు అభిరుచి గలవారిని ఇలాంటి హోస్ట్ చేసిన సందర్భాలను నిర్మించటానికి శక్తివంతం చేయగలవని స్టీఫెల్ హైలైట్ చేసింది.
ఓపెన్ సోర్స్ ఐ ప్రస్తుతం వేడిగా ఉంది
డీప్సీక్ యొక్క పారదర్శకత కార్యక్రమాలు ఓపెన్-సోర్స్ ఐ వైపు విస్తృత ధోరణితో కలిసి ఉంటాయి. ఐడిసి యొక్క నివేదికలో 60% సంస్థలు తమ ఉత్పాదక AI (జెనాయి) ప్రాజెక్టుల కోసం వాణిజ్య ప్రత్యామ్నాయాలపై ఓపెన్ సోర్స్ AI మోడళ్లను ఎంచుకుంటాయని వెల్లడించింది.
ఎండోర్ ల్యాబ్స్ పరిశోధన సంస్థలు సగటున, ప్రతి అనువర్తనానికి ఏడు మరియు ఇరవై ఒక్క ఓపెన్-సోర్స్ మోడళ్ల మధ్య ఉపయోగిస్తాయని సూచిస్తున్నాయి. తార్కికం స్పష్టంగా ఉంది: నిర్దిష్ట పనులకు మరియు API ఖర్చులను నియంత్రించడానికి ఉత్తమమైన నమూనాను పెంచడం.
“ఫిబ్రవరి 7 నాటికి, ఎండోర్ ల్యాబ్స్ 3,500 కంటే ఎక్కువ అదనపు మోడళ్లకు అసలు డీప్సెక్ ఆర్ 1 మోడల్ నుండి శిక్షణ పొందారని లేదా స్వేదనం చేయబడిందని కనుగొన్నారు” అని స్టీఫెల్ చెప్పారు. “ఇది ఓపెన్-సోర్స్ AI మోడల్ కమ్యూనిటీలోని శక్తి రెండింటినీ చూపిస్తుంది మరియు భద్రతా బృందాలు మోడల్ యొక్క వంశం మరియు దాని సంభావ్య నష్టాలు రెండింటినీ ఎందుకు అర్థం చేసుకోవాలి.”
సోబ్రియర్ కోసం, ఓపెన్-సోర్స్ AI నమూనాల పెరుగుతున్న స్వీకరణ వారి డిపెండెన్సీలను అంచనా వేయవలసిన అవసరాన్ని బలోపేతం చేస్తుంది.
“మేము AI మోడళ్లను మా సాఫ్ట్వేర్ మీద ఆధారపడిన ప్రధాన డిపెండెన్సీలుగా చూడాలి. కంపెనీలు ఈ మోడళ్లను ఉపయోగించడానికి చట్టబద్ధంగా అనుమతించబడతాయని నిర్ధారించుకోవాలి, కాని ఓపెన్ సోర్స్ లైబ్రరీల మాదిరిగానే కార్యాచరణ నష్టాలు మరియు సరఫరా గొలుసు నష్టాల పరంగా అవి ఉపయోగించడం సురక్షితం. ”
ఏదైనా నష్టాలు శిక్షణ డేటాకు విస్తరించవచ్చని అతను నొక్కిచెప్పాడు: “LLM కి శిక్షణ ఇవ్వడానికి ఉపయోగించే డేటాసెట్లు విషం పొందలేదని లేదా సున్నితమైన ప్రైవేట్ సమాచారం కలిగి ఉన్నాయని వారు నమ్మకంగా ఉండాలి.”
AI మోడల్ రిస్క్కు క్రమబద్ధమైన విధానాన్ని నిర్మించడం
ఓపెన్-సోర్స్ AI స్వీకరణ వేగవంతం కావడంతో, ప్రమాదాన్ని నిర్వహించడం మరింత క్లిష్టమైనది. స్టీఫెల్ మూడు కీలక దశల చుట్టూ కేంద్రీకృతమై ఒక క్రమబద్ధమైన విధానాన్ని వివరించాడు:
- ఆవిష్కరణ: మీ సంస్థ ప్రస్తుతం ఉపయోగిస్తున్న AI మోడళ్లను గుర్తించండి.
- మూల్యాంకనం: భద్రత మరియు కార్యాచరణ ఆందోళనలతో సహా సంభావ్య నష్టాల కోసం ఈ నమూనాలను సమీక్షించండి.
- ప్రతిస్పందన: సురక్షితమైన మరియు సురక్షితమైన మోడల్ స్వీకరణను నిర్ధారించడానికి కాపలాదారులను సెట్ చేయండి మరియు అమలు చేయండి.
“ఆవిష్కరణను ప్రారంభించడం మరియు ప్రమాదాన్ని నిర్వహించడం మధ్య సరైన సమతుల్యతను కనుగొనడం కీ” అని స్టీఫెల్ చెప్పారు. “మేము సాఫ్ట్వేర్ ఇంజనీరింగ్ బృందాలను ప్రయోగాలు చేయడానికి అక్షాంశం ఇవ్వాలి, కాని పూర్తి దృశ్యమానతతో చేయాలి. భద్రతా బృందానికి లైన్-ఆఫ్-దృష్టి మరియు పని చేయడానికి అంతర్దృష్టి అవసరం. ”
AI మోడళ్లను సురక్షితంగా నిర్మించడానికి మరియు స్వీకరించడానికి సమాజం ఉత్తమ పద్ధతులను అభివృద్ధి చేయాలని సోబ్రియర్ వాదించాడు. భద్రత, నాణ్యత, కార్యాచరణ నష్టాలు మరియు బహిరంగత వంటి పారామితులలో AI మోడళ్లను అంచనా వేయడానికి భాగస్వామ్య పద్దతి అవసరం.
పారదర్శకతకు మించి: బాధ్యతాయుతమైన AI భవిష్యత్తు కోసం చర్యలు
AI యొక్క బాధ్యతాయుతమైన వృద్ధిని నిర్ధారించడానికి, పరిశ్రమ అనేక వెక్టర్లలో పనిచేసే నియంత్రణలను అవలంబించాలి:
- సాస్ మోడల్స్: హోస్ట్ చేసిన మోడళ్ల ఉద్యోగుల వాడకాన్ని రక్షించడం.
- API ఇంటిగ్రేషన్లు: డెవలపర్లు డీప్సీక్ వంటి మూడవ పార్టీ API లను అనువర్తనాల్లోకి పొందుపరుస్తారు, ఇది ఓపెనాయ్ ఇంటిగ్రేషన్స్ వంటి సాధనాల ద్వారా, కేవలం రెండు పంక్తుల కోడ్తో విస్తరణను మార్చగలదు.
- ఓపెన్ సోర్స్ మోడల్స్: డెవలపర్లు కమ్యూనిటీ నిర్మించిన మోడళ్లను ప్రభావితం చేయడం లేదా డీప్సెక్ వంటి సంస్థలచే నిర్వహించబడుతున్న ప్రస్తుత పునాదుల నుండి వారి స్వంత నమూనాలను సృష్టించడం.
వేగంగా AI పురోగతి నేపథ్యంలో ఆత్మసంతృప్తి గురించి సోబ్రియర్ హెచ్చరించాడు. “సమాజం సురక్షితమైన మరియు ఓపెన్ AI మోడళ్లను అభివృద్ధి చేయడానికి ఉత్తమ పద్ధతులను నిర్మించాల్సిన అవసరం ఉంది, మరియు భద్రత, నాణ్యత, కార్యాచరణ నష్టాలు మరియు బహిరంగతతో పాటు వాటిని రేట్ చేయడానికి ఒక పద్దతి” అని ఆయన సలహా ఇచ్చారు.
స్టిఫెల్ క్లుప్తంగా సంగ్రహించినట్లుగా: “బహుళ వెక్టర్లలో భద్రత గురించి ఆలోచించండి మరియు ప్రతిదానికి తగిన నియంత్రణలను అమలు చేయండి.”
ఇవి కూడా చూడండి: 2025 లో AI: పర్పస్-నడిచే నమూనాలు, మానవ సమైక్యత మరియు మరిన్ని

పరిశ్రమ నాయకుల నుండి AI మరియు పెద్ద డేటా గురించి మరింత తెలుసుకోవాలనుకుంటున్నారా? తనిఖీ చేయండి AI & పెద్ద డేటా ఎక్స్పో ఆమ్స్టర్డామ్, కాలిఫోర్నియా మరియు లండన్లలో జరుగుతోంది. సమగ్ర సంఘటనతో సహా ఇతర ప్రముఖ సంఘటనలతో సహ-స్థాపించబడింది ఇంటెలిజెంట్ ఆటోమేషన్ కాన్ఫరెన్స్, బ్లాక్ఎక్స్, డిజిటల్ ట్రాన్స్ఫర్మేషన్ వీక్మరియు సైబర్ సెక్యూరిటీ & క్లౌడ్ ఎక్స్పో.
టెక్ఫోర్జ్ చేత శక్తినిచ్చే ఇతర రాబోయే ఎంటర్ప్రైజ్ టెక్నాలజీ ఈవెంట్స్ మరియు వెబ్నార్లను అన్వేషించండి ఇక్కడ.