产品内衣广告

内衣广告:如何选择适合自己的产品?

内衣作为女性生活中必不可少的一部分,它的舒适与否直接影响到女性的健康和形象。但是,市场上各种品牌的内衣产品琳琅满目,让人不知如何选择。在这篇博客中,我们将告诉您如何选择适合自己的内衣产品。

内衣广告图片

首先,您需要根据自己的身体特点来选择合适的内衣。每个人的身材都不同,因此内衣的尺寸和款式也需要根据个人情况来选择。过紧或过松的内衣都会对身体造成不良影响,而且穿着不舒适。

其次,您需要选择适合自己的内衣面料。内衣面料的选择直接影响到穿着的舒适度和透气性。例如,对于容易出汗的人来说,棉质内衣是最好的选择。而对于皮肤敏感的人来说,丝质内衣则是更好的选择。

内衣广告图片

最后,除了舒适度和透气性外,您还需要选择适合自己的内衣款式。根据不同的场合和服装,您需要选择不同款式的内衣。例如,背带式内衣适合穿着露肩的衣服,无肩带内衣适合穿着露背的衣服,而文胸内衣则适合穿着紧身或修身的衣服。

结论

在选择内衣产品时,您需要根据自己的身体特点、面料和款式来选择适合自己的内衣。只有选择了适合自己的内衣产品,才能保障您的身体健康和形象。

产品内衣广告特色

1、这款软件可以让用户的口语得到最大的提高。

2、全新万人国战模式,赢得属于你的无尽荣耀,感受热血刺激的战场碰撞

3、尽可能不要发出太大的声响,克服恐惧,否则你的动作将会吸引疯人的追赶。

4、语音翻译升级为对话翻译,即说即译,对话翻译让翻译更简单。

5、整体购物中心

产品内衣广告亮点

1、王者一刀星耀版游戏下载

2、它还使用了非常独特的快速扫描功能来扫描各种文件夹,以便在线了解。

3、查看当地最新消息,了解当地景点酒店等情况

4、当搜索结果较少少于0个结果时,就可以尝试对搜索出来的数据进行单独修改或者批量修

5、在线发布报名参加各种志愿活动,快速提升自己的价值。

zhekuanruanjiankeyirangyonghudekouyudedaozuidadetigao。quanxinwanrenguozhanmoshi,yingdeshuyunidewujinrongyao,ganshourexuecijidezhanchangpengzhuangjinkenengbuyaofachutaidadeshengxiang,kefukongju,fouzenidedongzuojianghuixiyinfengrendezhuigan。yuyinfanyishengjiweiduihuafanyi,jishuojiyi,duihuafanyirangfanyigengjiandan。zhengtigouwuzhongxin击败ChatGPT?OpenChat霸榜斯坦福AlpacaEval開源榜首,性(xing)能高达105.7%

新智(zhi)元报道

编輯:编辑部

【新智元導读】最(zui)能打的开源模型(xing)来了?OpenLLM在(zai)最新评测中,一舉击败ChatGPT。

一夜之(zhi)間,全新开源模型「OpenLLM」击败ChatGPT的消息,在网上引起軒然大波(bo)。

根(gen)据官(guan)方的介(jie)紹(shao),OpenLLM:

- 在斯坦福AlpacaEval上,以80.9%的胜率位列开源模型第一

- 在Vicuna GPT-4评测中,性能则达到(dao)了ChatGPT的105.7%

最重要的是,如此卓越的性能,只需要6K的GPT-4对话数据进行微調训(xun)练。

项目地址:https://github.com/imoneoi/openchat

不过Chatbot Arena的「榜单主」提醒称(cheng),由于舊的Vicu?a eval基准存在一些bias,因此提倡(chang)大家迁移到新提出(chu)的MT-bench上——从而更好地测评LLM更多方面的能力。

OpenLLM:只需6K GPT-4对话微调

OpenLLM是一个在多样化且高质量的多輪对话数据集上进行微调的开源语言(yan)模型系列。

具体来讲,研究人员(yuan)从約90K的ShareGPT对话中,过滤出来约6K的GPT-4对话。

經(jing)过6k数据微调后,令人惊讶的是,OpenLLM已经被证明可以在有限的数据下(xia)实现高性能。

OpenLLM有两个通用模型,它們是OpenChat和OpenChat-8192。

OpenChat:基于LLaMA-13B微调,上下文长度為2048

- 在Vicuna GPT-4评估中达到ChatGPT分数的105.7%

- 在AlpacaEval上取(qu)得了惊人的80.9%的胜率

OpenChat-8192:基于LLaMA-13B微调,上下文长度为8192

- 在Vicuna GPT-4评估中达到ChatGPT分数的106.6%

- 在AlpacaEval上取得的79.5%胜率

此外,OpenLLM还有代码模型,其性能如下:

OpenCoderPlus:基于StarCoderPlus,原(yuan)始(shi)上下文长度为8192

- 在Vicuna GPT-4评估中达到ChatGPT分数的102.5%

- 在AlpacaEval上获得78.7%的胜率

模型评估

研究人员使用Vicuna GPT-4和AlpacaEval基准评估了最新模型,结果如下图所示:

Vicuna GPT-4评估(v.s. gpt-3.5-turbo)

Vicuna GPT-3.5-Turbo评估(v.s. gpt-3.5-turbo)

另(ling)外,值得注(zhu)意(yi)的是,研究者采用的评估模式與(yu)Vicuna的略有不同,还使用了证据校准(EC)+平衡位置校准(BPC)来减(jian)少潜在的偏差。

安装和權重

要使用OpenLLM,需要安装CUDA和PyTorch。用戶可以克(ke)隆这个資源库,并通过pip安装这些依(yi)赖:

git clone git@github.com:imoneoi/OChat.git pip install -r requirements.txt

目前,研究人员已经提供了所有模型的完整权重作为huggingface存储库。

用户可以使用以下命令在本地啟動一个API服(fu)务器,地址为http://localhost:18888。

其中,服务器与openai包,以及ChatCompletions协议兼(jian)容(rong)(请注意,某些功(gong)能可能不完全支持)。

用户可以通过设(she)置以下方式指定openai包的服务器:

openai.api_base ="http://localhost:18888/v1"

当(dang)前支持的ChatCompletions参数有:

建(jian)议:使用至少40GB(1x A100)显存的GPU来运行服务器。

数据集

转(zhuan)换(huan)后的数据集可在openchat_sharegpt4_dataset上获取。

项目中所使用的数据集,是对ShareGPT清洗(xi)和筛選后的版本。

其中,原始的ShareGPT数据集包含(han)大约90,000个对话,而僅有6,000个经过清理的GPT-4对话被保留用于微调。

清洗后的GPT-4对话与对话模板和回合结束(shu)时(shi)的token相结合,然后根据模型的上下文限制进行截断(超出限制的内容将被丢弃)。

要运行数据处理流程,请執行以下命令:

./ochat/data/run_data_pipeline.sh INPUT_FOLDER OUTPUT_FOLDER

输入文件夹应包含一个ShareGPT文件夹,其中包含每个ShareGPT对话页面的.html文件。

数据处理流程包括三个步骤:

- 清洗:对HTML进行清理并转换为Markdown格式,删(shan)除格式错误的对话,删除包含被屏蔽词(ci)汇的对话,并进行基于哈希的精确去重处理

- 筛选:仅保留token为Model: GPT-4的对话

- 转换:为了模型的微调,针对所有的对话进行转换和分词处理

最终转换后的数据集遵循以下格式:

MODEL_TYPE.train.json / .eval.json

[ [token_id_list, supervise_mask_list], [token_id_list, supervise_mask_list], ... ]

MODEL_TYPE.train.text.json / .eval.text.json从token_id_list解码的纯文本

除此之外,研究人员还提供了一个用于可视化对话嵌入的工(gong)具。

只需用瀏(liu)览器打开ochat/visualization/ui/visualizer.html,并将MODEL_TYPE.visualizer.json拖放到网页中。点击3D图中的点,就(jiu)可以显示相应的对话。

其中,嵌入是使用openai_embeddings.py创建的,然后使用dim_reduction.ipynb进行UMAP降维和K-Means着色。

模型修(xiu)改

研究人员为每个基礎模型添加了一个EOT(对话结束)token。

对于LLaMA模型,EOT的嵌入初始化为所有现有token嵌入的平均值。对于StarCoder模型,EOT的嵌入以0.02標准差进行隨机初始化。

对于具有8192上下文的LLaMA-based模型,max_position_embeddings被设置为8192,并且进行了RoPE(相对位置编码)代码的外推。

训练

训练模型时使用的超参数在所有模型中都是相同的:

使用8xA100 80GB进行训练:

NUM_GPUS= 8

deepspeed--num_gpus=$NUM_GPUS --module ochat.training_deepspeed.train \--model_type MODEL_TYPE \--model_path BASE_MODEL_PATH \--save_path TARGET_FOLDER \--length_grouping \--epochs 5 \--data_path DATASET_PATH \--deepspeed \--deepspeed_config ochat/training_deepspeed/deepspeed_config.json

评估

要运行Vicuna GPT-4评估,请执行以下步骤:

1. 生成模型答案

python-m ochat.evaluation.get_model_answer --model_type MODEL_TYPE --models_path PATH_CONTAINING_ALL_MODELS_SAME_TYPE --data_path ./ochat/evaluation/vicuna --output_path ./eval_results

2. 生成基线(GPT-3.5)答案

OPENAI_API_KEY=sk-XXX python -m ochat.evaluation.get_openai_answer --data_path ./ochat/evaluation/vicuna --output_path ./eval_baselines --model_types gpt- 3.5-turbo

3. 运行GPT-4评估

OPENAI_API_KEY=sk-XXX python -m ochat.evaluation.openai_eval --data_path ./ochat/evaluation/vicuna --baseline_path ./eval_baselines/vicuna_gpt- 3.5-turbo.jsonl --input_path ./eval_results

4. 可视化和细节

要获得可视化和绘制评估结果,请使用浏览器打开ochat/visualization/eval_result_ui/eval_result_visualizer.html,并选擇./eval_results/eval_result_YYYYMMDD文件夹中的所有文件以显示结果。

局限性

基础模型限制

尽管能夠实现优秀(xiu)的性能,但OpenLLM仍然受到其基础模型固有限制的限制。这些限制可能会影响模型在以下领域的性能:

- 复(fu)杂推理

- 数學(xue)和算术任务

- 编程和编码挑(tiao)战

不存在信(xin)息的幻觉

OpenLLM有时可能会产生不存在或不准确的信息,也称为「幻觉」。用户应该(gai)意识到这種可能性,并验证从模型中获得的任何关键信息。

参考(kao)资料:

https://github.com/imoneoi/openchat

https://tatsu-lab.github.io/alpaca_eval/返回搜(sou)狐,查看更多

責任编辑:

发布于:黑龙江省双鸭山岭东区