当前位置: 首页 > news >正文

怎么在云主机上做网站it网站设计

怎么在云主机上做网站,it网站设计,班级网站建设开题报告,最简单的cms网站怎么做通过LLM多轮对话生成单元测试用例 代码 在采用 随机生成pytorch算子测试序列且保证算子参数合法 这种方法之前,曾通过本文的方法生成算子组合测试用例。目前所测LLM生成的代码均会出现BUG,且多次交互后仍不能解决.也许随着LLM的更新,这个问题会得到解决.记录备用。 代码 impo… 通过LLM多轮对话生成单元测试用例 代码 在采用 随机生成pytorch算子测试序列且保证算子参数合法 这种方法之前,曾通过本文的方法生成算子组合测试用例。目前所测LLM生成的代码均会出现BUG,且多次交互后仍不能解决.也许随着LLM的更新,这个问题会得到解决.记录备用。 代码 import re import os import logging import random import numpy as np import os import re import traceback import subprocess import tempfile import copy import requests import jsonimport os os.environ[MKL_THREADING_LAYER] GNU os.environ[MKL_SERVICE_FORCE_INTEL] 1os.environ[QIANFAN_AK] os.environ[QIANFAN_SK] os.environ[DASHSCOPE_API_KEY] sk- os.environ[MOONSHOT_API_KEY]sk- os.environ[SPARKAI_APP_ID] os.environ[SPARKAI_API_SECRET] os.environ[SPARKAI_API_KEY] os.environ[SPARKAI_DOMAIN] generalv3.5 os.environ[ZhipuAI_API_KEY] os.environ[YI_API_KEY]logger logging.getLogger(llm_logger) logger.setLevel(logging.DEBUG) # 设置日志级别# 创建一个handler用于写入日志文件 log_file llm_opt.log file_handler logging.FileHandler(log_file) file_handler.setLevel(logging.DEBUG)# 创建一个handler用于将日志输出到控制台 console_handler logging.StreamHandler() console_handler.setLevel(logging.DEBUG)# 设置日志格式 formatter logging.Formatter(%(message)s) file_handler.setFormatter(formatter) console_handler.setFormatter(formatter)# 将handlers添加到logger logger.addHandler(file_handler) logger.addHandler(console_handler)system_prompt你是一位pytorch专家,现在需要编写各种测试程序,挖掘算子的潜在BUGquestion f 背景描述: 1.为了测试pytorch不同算子组合时的精度是否正常,需要构建module级别的测试用例 2.尤其需要关注unsqueeze,repeat,permute,transpose,reshape,expand,view等维度变换算子的各种组合 3.以及在这些组合之后添加其它io或计算类的算子如(contiguous,matmul,mul,concat等)需求: 1.你一次生成一个测试用例(pytorch module及测例),只包含cpu计算 2.之后,我会从的回复中提取出python代码,执行并将结果反馈给你 3.你根据我的反馈,预测性地生成下一个测试用例 4.我们通过多次交互,最大程度地挖掘出潜在的BUG约束: 1.所有测试用例的代码放在一个python 中,方便提取 2.为了防止shape不匹配,建议在forward中计算shape,并根据当前的shape合理地设置下一个算子的参数 3.你每次提供的代码都必须是完整的,不要添加任何注释 4.测试代码只输出成功、失败或抛异常,不需要输出任何多余信息 5.特别需要注意矩阵乘维度是否匹配如果你明白我的意思,请直接输出第一个测试用例 def extract_and_run_python_code(markdown_text):pattern re.compile(rpython\n([^].*?)\n, re.DOTALL)code_blocks pattern.findall(markdown_text)if len(code_blocks)0:return 没有找到Python代码块。results []for code in code_blocks:try:with tempfile.NamedTemporaryFile(deleteFalse, suffix.py) as temp_file:temp_file.write(code.encode())temp_filename temp_file.nameresult subprocess.run([python3, temp_filename], capture_outputTrue, textTrue) outputf{result.stderr}{result.stdout}results.append(output)except Exception as e:error_message ferror:{traceback.format_exc()}results.append(error_message) finally:os.remove(temp_filename)return .join(results)class LLMInfer(object):def __init__(self, system_prompt,question,history_len5):self.system_promptsystem_promptself.questionquestion self.history_lenhistory_len def infer(self,user_inputNone):pass def reset(self):passclass dashscope_llm(LLMInfer):def __init__(self, system_prompt, question):super().__init__(system_prompt, question)import dashscopedashscope.api_keyos.environ[DASHSCOPE_API_KEY] self.history[]self.history.append({role: system, content: self.system_prompt})self.history.append({role: user, content: self.question}) def reset(self):if len(self.history)self.history_len:self.historyself.history[:2] self.history[-3:]def infer(self,user_inputNone):from dashscope import Generationfrom http import HTTPStatus if user_input:self.history.append({role: user, content: user_input})response Generation.call(modelqwen-plus, messagesself.history,result_formatmessage)if response.status_code HTTPStatus.OK:roleresponse.output.choices[0][message][role]contentresponse.output.choices[0][message][content]self.history.append({role: role,content: content})return contentelse:return Noneclass moonshot_llm(LLMInfer):def __init__(self, system_prompt, question):super().__init__(system_prompt, question)pip install --upgrade openai1.0from openai import OpenAIself.client OpenAI(api_key os.environ[MOONSHOT_API_KEY],base_url https://api.moonshot.cn/v1,)self.history[]self.history.append({role: system, content: self.system_prompt})self.history.append({role: user, content: self.question}) def reset(self):if len(self.history)self.history_len:self.historyself.history[:2] self.history[-3:]def infer(self,user_inputNone): if user_input:self.history.append({role: user, content: user_input})completion self.client.chat.completions.create(modelmoonshot-v1-128k,messagesself.history,temperature0.3,top_p0.1)roleassistantcontentcompletion.choices[0].message.contentself.history.append({role: role,content: content})return contentclass qianfan_llm(LLMInfer):def __init__(self, system_prompt, question):super().__init__(system_prompt, question)pip3 install qianfanself.history[]#self.history.append({role: system, content: self.system_prompt})self.history.append({role: user, content: self.question}) def reset(self):if len(self.history)self.history_len:self.historyself.history[:1] self.history[-2:]def infer(self,user_inputNone): import qianfan if user_input:self.history.append({role: user, content: user_input})response qianfan.ChatCompletion().do(endpointcompletions_pro, messagesself.history,temperature0.7, top_p0.8, penalty_score1, disable_searchFalse, enable_citationFalse)roleassistantcontentresponse.body[result]self.history.append({role: role,content: content})return contentclass sparkai_llm(LLMInfer):def __init__(self, system_prompt, question):super().__init__(system_prompt, question)pip3 install --upgrade spark_ai_pythonfrom sparkai.llm.llm import ChatSparkLLMfrom sparkai.core.messages import ChatMessageself.spark ChatSparkLLM(spark_api_urlwss://spark-api.xf-yun.com/v3.5/chat,spark_app_idos.environ[SPARKAI_APP_ID],spark_api_keyos.environ[SPARKAI_API_KEY],spark_api_secretos.environ[SPARKAI_API_SECRET],spark_llm_domainos.environ[SPARKAI_DOMAIN],streamingFalse, temperature0.1)self.history[]self.history.append(ChatMessage(rolesystem,contentself.system_prompt))self.history.append(ChatMessage(roleuser,contentself.question))def reset(self):if len(self.history)self.history_len:self.historyself.history[:2] self.history[-3:]def infer(self,user_inputNone): from sparkai.core.messages import ChatMessagefrom sparkai.llm.llm import ChunkPrintHandlerif user_input:self.history.append(ChatMessage(roleuser,contentuser_input)) handler ChunkPrintHandler()response self.spark.generate([self.history], callbacks[handler])self.history.append(response.generations[0][0].message)return response.generations[0][0].textclass zhipuai_llm(LLMInfer):def __init__(self, system_prompt, question):super().__init__(system_prompt, question)pip install zhipuaifrom zhipuai import ZhipuAIself.client ZhipuAI(api_keyos.environ[ZhipuAI_API_KEY])self.history[]self.history.append({role: system, content: self.system_prompt})self.history.append({role: user, content: self.question}) def reset(self):if len(self.history)self.history_len:self.historyself.history[:2] self.history[-3:]def infer(self,user_inputNone): if user_input:self.history.append({role: user, content: user_input})completion self.client.chat.completions.create(modelglm-4,messagesself.history,temperature0.3,top_p0.1)roleassistantcontentcompletion.choices[0].message.contentself.history.append({role: role,content: content})return contentclass yi_llm(LLMInfer):def __init__(self, system_prompt, question):super().__init__(system_prompt, question)pip install --upgrade openai1.0from openai import OpenAIself.client OpenAI(api_key os.environ[YI_API_KEY],base_url https://api.lingyiwanwu.com/v1,)self.history[]self.history.append({role: system, content: self.system_prompt})self.history.append({role: user, content: self.question}) def reset(self):if len(self.history)self.history_len:self.historyself.history[:2] self.history[-3:]def infer(self,user_inputNone): if user_input:self.history.append({role: user, content: user_input})completion self.client.chat.completions.create(modelyi-large,messagesself.history,temperature0.3,top_p0.1)roleassistantcontentcompletion.choices[0].message.contentself.history.append({role: role,content: content})return contentllms[dashscope_llm,moonshot_llm,qianfan_llm,sparkai_llm,zhipuai_llm,yi_llm] for llm in llms:logger.info(f ---------------------------------- {llm.__name__} ---------------------------------- )llmllm(system_prompt,question)response llm.infer()for i in range(15):llm.reset()logger.info(f ---------------------------------- 第{i}轮 ---------------------------------- )resultNonelogger.info(####### bot #######)logger.info(f{response})if response:resultf{extract_and_run_python_code(response)} logger.info(####### user #######)logger.info(f{result})responsellm.infer(result)
http://www.laogonggong.com/news/130397.html

相关文章:

  • 上海做网站的费用宁夏建设管理局网站
  • 贵州建设职业技术学院网站安徽中颐建设投资有限公司网站
  • 网络营销研究现状文献综述邯郸网站关键字优化
  • 徐州网站开发多少钱网络营销推广方式有哪些
  • 爱心建站网泰安一级的企业建站公司
  • 创建网站要多长时间网易企业邮箱怎么撤回邮件
  • 北京网站设计联系方式电脑打开做的网站总显示404
  • 苏州高端网站设计制作wordpress0商业网站
  • 华为外包做的网站信专业广州网站建设
  • 网站没有模版能打开吗wordpress 2万条就卡
  • 网站编辑楼盘详情页怎么做进一步加强舆情管控
  • 郑州网站优化效果开发一个小程序
  • 网站建设服务开发网站开发英语翻译
  • 崇义做网站如何用社交网站开发客户
  • 网站搭建手机拍摄公司宣传片制作
  • 佛山网站建设thual北京门户网站设计
  • 苏州建设企业网站芜湖网站推广
  • 官方网站开发合同网站域名备案密码
  • 计算机网站设计营销网站的建设流程
  • 网站建设招标要求可以做mv 的视频网站
  • 长沙网站制作哪家专业足球门户网站建设
  • 网站地图作用微信打字赚钱平台30元
  • 19年做哪个网站致富创建全国文明城市方案
  • 网站后台加什么后缀源码下载网站推荐
  • 金融公司网站模版嘉兴网站排名优化费用
  • 建设一个网站的所有代码企业邮箱登录9951026net
  • 超级营销型网站模板企业无线局域网组建方案
  • 长沙制作网站公司wordpress 4.0.23漏洞
  • html5单页网站模板长沙制作公园仿竹护栏实体厂家
  • 福州企业做网站邯郸网站设计怎么开发