LangChainలో LLM మరియు LLMCchainని ఎలా నిర్మించాలి?

Langchainlo Llm Mariyu Llmcchainni Ela Nirmincali



లాంగ్‌చైన్ అనేది సహజ భాషా ప్రాసెసింగ్ లేదా NLP డొమైన్‌లోని అప్లికేషన్‌తో కూడిన ఫ్రేమ్‌వర్క్, ఇది మానవ-వంటి భాషలలో నమూనాలను రూపొందించడానికి. ఈ మోడల్‌లను మోడల్ నుండి సమాధానాలు పొందడానికి లేదా ఇతర మనుషుల మాదిరిగానే సంభాషణను పొందడానికి మానవులు ఉపయోగించవచ్చు. LangChain సంభాషణలో ప్రతి వాక్యాన్ని నిల్వ చేయడం ద్వారా గొలుసులను నిర్మించడానికి ఉపయోగించబడుతుంది మరియు దానిని సందర్భం వలె ఉపయోగించి మరింత పరస్పర చర్య చేస్తుంది.

ఈ పోస్ట్ LangChainలో LLM మరియు LLMCchain నిర్మాణ ప్రక్రియను వివరిస్తుంది.







LangChainలో LLM మరియు LLMCchainని ఎలా నిర్మించాలి?

LangChainలో LLM మరియు LLMCchainని నిర్మించడానికి, జాబితా చేయబడిన దశలను అనుసరించండి:



దశ 1: మాడ్యూల్‌లను ఇన్‌స్టాల్ చేయండి

ముందుగా, LangChain మాడ్యూల్‌ని LLMలు మరియు LLMCchain నిర్మించడానికి దాని లైబ్రరీలను ఉపయోగించడానికి ఇన్‌స్టాల్ చేయండి:



పిప్ ఇన్‌స్టాల్ లాంగ్‌చెయిన్





LLMలను నిర్మించడానికి అవసరమైన మరొక మాడ్యూల్ OpenAI, మరియు దీనిని పిప్ కమాండ్ ఉపయోగించి ఇన్‌స్టాల్ చేయవచ్చు:

pip ఇన్స్టాల్ openai



దశ 2: పర్యావరణాన్ని సెటప్ చేయండి

దాని పర్యావరణం నుండి OpenAI API కీని ఉపయోగించి పర్యావరణాన్ని సెటప్ చేయండి:

మమ్మల్ని దిగుమతి చేసుకోండి
దిగుమతి getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API కీ:')

ఉదాహరణ 1: LangChainని ఉపయోగించి LLMలను రూపొందించండి

OpenAI మరియు ChatOpenAI లైబ్రరీలను దిగుమతి చేయడం మరియు llm() ఫంక్షన్‌ని ఉపయోగించడం ద్వారా LangChainని ఉపయోగించి లార్జ్ లాంగ్వేజ్ మోడల్‌లను రూపొందించడం మొదటి ఉదాహరణ:

దశ 1: LLM చాట్ మోడల్‌ని ఉపయోగించడం

LangChain నుండి OpenAI వాతావరణాన్ని ఉపయోగించి ఒక సాధారణ LLMని రూపొందించడానికి OpenAI మరియు ChatOpenAI మాడ్యూల్‌లను దిగుమతి చేయండి:

langchain.chat_models నుండి ChatOpenAIని దిగుమతి చేయండి

langchain.llms నుండి OpenAIని దిగుమతి చేయండి

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('హాయ్!')

దిగువ స్క్రీన్‌షాట్‌లో ప్రదర్శించబడినట్లుగా మోడల్ “హాయ్” సమాధానంతో ప్రత్యుత్తరం ఇచ్చింది:

chat_model నుండి ప్రిడిక్ట్() ఫంక్షన్ మోడల్ నుండి సమాధానం లేదా ప్రత్యుత్తరాన్ని పొందడానికి ఉపయోగించబడుతుంది:

chat_model.predict('హాయ్!')

ప్రశ్నలను అడిగే వినియోగదారు యొక్క పారవేయడం వద్ద మోడల్ ఉన్నట్లు అవుట్‌పుట్ ప్రదర్శిస్తుంది:

దశ 2: టెక్స్ట్ క్వెరీని ఉపయోగించడం

టెక్స్ట్ వేరియబుల్‌లో పూర్తి వాక్యాన్ని ఇవ్వడం ద్వారా వినియోగదారు మోడల్ నుండి సమాధానాలను కూడా పొందవచ్చు:

text = 'రంగు రంగుల సాక్స్‌లను తయారు చేసే కంపెనీకి మంచి కంపెనీ పేరు ఏమిటి?'

llm.predict(టెక్స్ట్)

మోడల్ రంగురంగుల సాక్స్ కోసం బహుళ రంగు కలయికలను ప్రదర్శించింది:

సాక్స్ కోసం కలర్ కాంబినేషన్‌తో ప్రిడిక్ట్() ఫంక్షన్‌ని ఉపయోగించి మోడల్ నుండి వివరణాత్మక ప్రత్యుత్తరాన్ని పొందండి:

chat_model.predict(టెక్స్ట్)

దశ 3: కంటెంట్‌తో వచనాన్ని ఉపయోగించడం

వినియోగదారు సమాధానం గురించి కొంచెం వివరణతో సమాధానాన్ని పొందవచ్చు:

langchain.schema దిగుమతి హ్యూమన్ మెసేజ్ నుండి

text = 'రంగు రంగుల దుస్తులను తయారు చేసే కంపెనీకి మంచి టైటిల్ ఏది'
సందేశాలు = [హ్యూమన్ మెసేజ్(కంటెంట్=టెక్స్ట్)]

llm.predict_messages(messages)

మోడల్ కంపెనీకి 'క్రియేటివ్ క్లాతింగ్ కో' అనే టైటిల్‌ను రూపొందించింది:

దాని వివరణతో పాటు కంపెనీ శీర్షికకు సమాధానాన్ని పొందడానికి సందేశాన్ని అంచనా వేయండి:

chat_model.predict_messages(messages)

ఉదాహరణ 2: LangChainని ఉపయోగించి LLMCchainని రూపొందించండి

మా గైడ్ యొక్క రెండవ ఉదాహరణ మునుపటి ఉదాహరణ నుండి అన్ని దశలను కలపడానికి మానవ పరస్పర చర్య యొక్క ఆకృతిలో మోడల్‌ను పొందడానికి LLMCchainని రూపొందిస్తుంది:

langchain.chat_models నుండి ChatOpenAIని దిగుమతి చేయండి
langchain.prompts.chat నుండి ChatPromptTemplate దిగుమతి
langchain.prompts.chat నుండి ChatPromptTemplate దిగుమతి
langchain.prompts.chat దిగుమతి Langchain.prompts.chat నుండి SystemMessagePromptTemplate దిగుమతి HumanMessagePromptTemplate నుండి
langchain.chains నుండి LLMCchain దిగుమతి
langchain.schema నుండి దిగుమతి బేస్ అవుట్‌పుట్ పార్సర్‌క్లాస్ కామా వేరు చేయబడిన జాబితాఅవుట్‌పుట్ పార్సర్(బేస్ అవుట్‌పుట్ పార్సర్):

def parse(self, text: str):
text.strip().split(', ')ని తిరిగి ఇవ్వండి

చాట్ మోడల్‌కు సంబంధించిన టెంప్లేట్‌ని దాని పని గురించి వివరణాత్మక వివరణ ఇవ్వడం ద్వారా రూపొందించండి మరియు LLM, అవుట్‌పుట్ పార్సర్ మరియు chat_prompt లైబ్రరీలను కలిగి ఉన్న LLMCchain() ఫంక్షన్‌ను రూపొందించండి:

టెంప్లేట్ = '''కామాతో వేరు చేయబడిన జాబితాలను రూపొందించడంలో మీరు సహాయం చేయాలి
వినియోగదారు నుండి వర్గాన్ని పొందండి మరియు ఐదు వస్తువులతో కామాతో వేరు చేయబడిన జాబితాను రూపొందించండి
''' వర్గం నుండి వస్తువు మాత్రమే వస్తువు అయి ఉండాలి
system_message_prompt = SystemMessagePromptTemplate.from_template(టెంప్లేట్)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#ఎల్‌ఎల్‌ఎంచైన్‌ను ప్రశ్న నిర్మాణంతో కాన్ఫిగర్ చేయండి
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
చైన్ = LLMCచైన్(
llm=ChatOpenAI(),
ప్రాంప్ట్=చాట్_ప్రాంప్ట్,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('రంగులు')

వర్గం ప్రాంప్ట్‌లో ఇచ్చిన 5 ఆబ్జెక్ట్‌లను మాత్రమే కలిగి ఉండాలి కాబట్టి మోడల్ రంగుల జాబితాతో సమాధానాన్ని అందించింది:

లాంగ్‌చెయిన్‌లో ఎల్‌ఎల్‌ఎమ్ మరియు ఎల్‌ఎల్‌ఎంచైన్‌లను నిర్మించడం గురించి అంతే.

ముగింపు

LangChainని ఉపయోగించి LLM మరియు LLMChainని నిర్మించడానికి, దాని API కీని ఉపయోగించి పర్యావరణాన్ని సెటప్ చేయడానికి LangChain మరియు OpenAI మాడ్యూల్‌లను ఇన్‌స్టాల్ చేయండి. ఆ తర్వాత, పూర్తి చాట్‌కి ఒకే ప్రశ్న కోసం ప్రాంప్ట్ టెంప్లేట్‌ని సృష్టించిన తర్వాత chat_modelని ఉపయోగించి LLM మోడల్‌ను రూపొందించండి. LLMCchain సంభాషణలోని అన్ని పరిశీలనల గొలుసులను నిర్మించడానికి మరియు వాటిని పరస్పర చర్య యొక్క సందర్భం వలె ఉపయోగించడానికి ఉపయోగించబడుతుంది. ఈ పోస్ట్ LangChain ఫ్రేమ్‌వర్క్‌ని ఉపయోగించి LLM మరియు LLMCchain నిర్మాణ ప్రక్రియను వివరిస్తుంది.