Hot News

OpenAI డెవలపర్‌ల కోసం ఓపెన్-వెయిట్ AI భద్రతా నమూనాలను ఆవిష్కరించింది

OpenAI “సేఫ్‌గార్డ్” మోడల్‌ల యొక్క కొత్త పరిశోధన ప్రివ్యూతో AI డెవలపర్‌ల చేతుల్లో నేరుగా మరిన్ని భద్రతా నియంత్రణలను ఉంచుతోంది. ఓపెన్-వెయిట్ మోడల్‌ల యొక్క కొత్త ‘gpt-oss-safeguard’ కుటుంబం కంటెంట్ వర్గీకరణను అనుకూలీకరించడానికి పూర్తిగా లక్ష్యంగా ఉంది.

కొత్త ఆఫర్‌లో రెండు మోడల్స్ ఉంటాయి, gpt-oss-safeguard-120b మరియు చిన్నది gpt-oss-safeguard-20b. రెండూ ఇప్పటికే ఉన్న gpt-oss కుటుంబం యొక్క ఫైన్-ట్యూన్డ్ వెర్షన్లు మరియు అనుమతించబడిన Apache 2.0 లైసెన్స్ క్రింద అందుబాటులో ఉంటాయి. ఇది ఏ సంస్థ అయినా తమకు తగినట్లుగా మోడల్‌లను ఉచితంగా ఉపయోగించడానికి, సర్దుబాటు చేయడానికి మరియు అమలు చేయడానికి అనుమతిస్తుంది.

ఇక్కడ నిజమైన తేడా కేవలం ఓపెన్ లైసెన్స్ కాదు; అది పద్ధతి. మోడల్‌లో బేక్ చేయబడిన నియమాల స్థిర సెట్‌పై ఆధారపడకుండా, gpt-oss-safeguard డెవలపర్ యొక్క స్వంత విధానాన్ని అనుమితి సమయంలో అర్థం చేసుకోవడానికి దాని తార్కిక సామర్థ్యాలను ఉపయోగిస్తుంది. దీనర్థం OpenAI యొక్క కొత్త మోడల్‌ని ఉపయోగించే AI డెవలపర్‌లు ఒకే వినియోగదారు ప్రాంప్ట్‌ల నుండి పూర్తి చాట్ చరిత్రల వరకు దేనినైనా వర్గీకరించడానికి వారి స్వంత నిర్దిష్ట భద్రతా ఫ్రేమ్‌వర్క్‌ను సెటప్ చేయవచ్చు. డెవలపర్, మోడల్ ప్రొవైడర్ కాదు, రూల్‌సెట్‌పై తుది అభిప్రాయాన్ని కలిగి ఉంటారు మరియు దానిని వారి నిర్దిష్ట వినియోగ సందర్భానికి అనుగుణంగా మార్చవచ్చు.

ఈ విధానం స్పష్టమైన ప్రయోజనాలను కలిగి ఉంది:

  1. పారదర్శకత: మోడల్‌లు చైన్-ఆఫ్-థాట్ ప్రాసెస్‌ను ఉపయోగిస్తాయి, కాబట్టి డెవలపర్ వాస్తవానికి బోనెట్ కింద చూడవచ్చు మరియు వర్గీకరణ కోసం మోడల్ యొక్క లాజిక్‌ను చూడవచ్చు. ఇది సాధారణ “బ్లాక్ బాక్స్” వర్గీకరణ నుండి భారీ మెట్టు.
  1. చురుకుదనం: భద్రతా విధానం OpenAI యొక్క కొత్త మోడల్‌లో శాశ్వతంగా శిక్షణ పొందనందున, డెవలపర్‌లు పూర్తి రీట్రైనింగ్ సైకిల్ అవసరం లేకుండా ఫ్లైలో వారి మార్గదర్శకాలను పునరావృతం చేయవచ్చు మరియు సవరించవచ్చు. ఈ వ్యవస్థను దాని అంతర్గత బృందాల కోసం మొదట రూపొందించిన OpenAI, సంప్రదాయ వర్గీకరణదారుని పరోక్షంగా పాలసీ ఏమి సూచిస్తుందో ఊహించడానికి శిక్షణ ఇవ్వడం కంటే భద్రతను నిర్వహించడానికి ఇది చాలా సరళమైన మార్గం అని పేర్కొంది.

ప్లాట్‌ఫారమ్ హోల్డర్ నుండి ఒక-పరిమాణ-సరిపోయే-అన్ని భద్రతా లేయర్‌పై ఆధారపడే బదులు, ఓపెన్-సోర్స్ AI మోడల్‌లను ఉపయోగించే డెవలపర్‌లు ఇప్పుడు వారి స్వంత నిర్దిష్ట ప్రమాణాలను రూపొందించవచ్చు మరియు అమలు చేయవచ్చు.

వ్రాతపూర్వకంగా జీవించనప్పటికీ, డెవలపర్‌లు హగ్గింగ్ ఫేస్ ప్లాట్‌ఫారమ్‌లో OpenAI యొక్క కొత్త ఓపెన్-వెయిట్ AI భద్రతా నమూనాలను యాక్సెస్ చేయగలరు.

ఇవి కూడా చూడండి: OpenAI పునర్నిర్మాణం, Microsoft భాగస్వామ్యం యొక్క ‘తదుపరి అధ్యాయం’లోకి ప్రవేశిస్తుంది

TechEx ఈవెంట్‌ల ద్వారా AI & బిగ్ డేటా ఎక్స్‌పో కోసం బ్యానర్.

పరిశ్రమ ప్రముఖుల నుండి AI మరియు పెద్ద డేటా గురించి మరింత తెలుసుకోవాలనుకుంటున్నారా? తనిఖీ చేయండి AI & బిగ్ డేటా ఎక్స్‌పో ఆమ్‌స్టర్‌డామ్, కాలిఫోర్నియా మరియు లండన్‌లో జరుగుతున్నాయి. సమగ్ర కార్యక్రమం ఇందులో భాగమే టెక్ఎక్స్ మరియు సహా ఇతర ప్రముఖ సాంకేతిక ఈవెంట్‌లతో కలిసి ఉంది సైబర్ సెక్యూరిటీ ఎక్స్‌పోక్లిక్ చేయండి ఇక్కడ మరింత సమాచారం కోసం.

AI వార్తలు ఆధారితం టెక్ఫోర్జ్ మీడియా. రాబోయే ఇతర ఎంటర్‌ప్రైజ్ టెక్నాలజీ ఈవెంట్‌లు మరియు వెబ్‌నార్‌లను అన్వేషించండి ఇక్కడ.

పోస్ట్ OpenAI డెవలపర్‌ల కోసం ఓపెన్-వెయిట్ AI భద్రతా నమూనాలను ఆవిష్కరించింది.

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

Top