随便聊聊

    2018年7月14日

  来到广州以后,一开始这里给我的影响并不是很好,这里的车辆不会礼让行人,这里到处讲的是我听不懂的粤语,我住的宿舍他们每人盖个棉被,然而却把空调温度调到22度,而且空调风还是对着我吹的,刚来的一个星期,我每天身体都空调吹的冰凉,6点左右冷醒来,教室的空调也是对着我的这个位置吹的,很倒霉,到哪都被空调对着吹,这个夏天对我来说格外的冷,我已经吹怕了,

  昨天在广州逛了一天,地铁的好看妹子好多呀,真是美不胜收,大城市的街道也有很多妹子,看都看不来,而且贼漂亮,有一些是化妆化的很美,有一些就是很漂亮,化妆之后简直就是仙女下凡呀,嗯,以后要尽可能的在大城市里生活,原因很简单,大城市的好看妹子多,稍微有点救的都会把自己打扮的很精致。而且我在街上还发现一个规律,单身的女的普遍比身边有男生的女的长得漂亮,看来好看的都单杀这话没错,行,去大城市离我找校花的目标又进了一步,但是我的那个处女情结,可能真会限制我,哎,这样一来,找个可以结婚的女朋友真滴很难!管他,努力学习,努力赚钱,有钱能帮我实现很多梦想!

    2018年7.15

  世间没有免费的晚餐,继续对广州这里的人很不喜欢,不要捡天上掉下来的馅饼,永远不要,

    2018年7,23

  这里的女的喜欢抽烟,今天寄快递,韵达快递,那女的服务很好,我真想给她个五星好评,可以没有这个共能,希望以后开发软件能补上这个功能。

    2018年7,23

  今天晨讲,晨讲内容是利用GUI图形化用户界面,制作一个表白软件,使用的是Tkinter是python的标准GUI库,Python使用Tkinter可以迅速创建GUI应用程序

打包过程,先要安装pyinstaller包,在doc界面,输入,pip install pyinstaller,就会开始下载python第三方库

然后打包过程是,在doc界面输入,pyinstaller -F -w douyin.py,第一次打包会慢一点,等待片刻,就会生成.exe文件

   2018年8,4

  着装得体(不用国产,不要jack&johns\Selected)、每天洗澡、适当用香水、女士优先、不乱扔垃圾、不在人群中抽烟、不大声喧哗、碰到别人说抱歉、不在地铁上吃东西、尊重别人的职业和劳动、尊重别人的隐私、不随便打听别人的工资、不随便评价别人,人都是狗眼看人低的,但区别在于高尚的人藏在心里,低俗的人挂在口上。

  保持不甘心,保持正能量,做这件事情的时候一定要换位思考,要想自己做的事情会不会给别人造成困扰,积极影响身边的人

 深度学习的原理和人的一生极为相似,都是在以不断追求利益最大化的前提下,反复的磨炼\拖鞋\修正\适应\取舍\优化,不断地权衡"利弊",不断地折中"妥协",不断的在舍得中博弈决策,最终实现目标效益的最优化.笔者希望在讲解理论技术的同时,将这些人生感悟与读者分享,给还在不断探索与追逐梦想的读者一些启迪,找到属于自己的"螺旋式上升,波浪式前进"的人生之路.

  距离产生美,

  永远不要当一个暴躁的正义者。

 

转载于:https://www.cnblogs.com/LXP-Never/p/9311818.html

以上代码有以下问题,分析修改:(style_tune) C:\Users\28996\Desktop\AI\persona_contrastive_finetuning>python Contrastive_Training_LM.py Map: 0%| | 0/1 [00:00<?, ? examples/s]ERROR:__main__:无法解析anchor_input_ids: 你如何看待气候变化? ERROR:__main__:无法解析positive_input_ids: 气候变化是严峻的全球危机,我们需要立即采取行动减少碳排放! ERROR:__main__:无法解析negative_input_ids: 哈哈天气什么的随便啦,不如聊聊游戏? Map: 100%|████████████████████████████████████████████████████████████████████████| 1/1 [00:00<00:00, 13.02 examples/s] Map: 0%| | 0/1 [00:00<?, ? examples/s]ERROR:__main__:无法解析anchor_input_ids: 你如何看待气候变化? ERROR:__main__:无法解析positive_input_ids: 气候变化是严峻的全球危机,我们需要立即采取行动减少碳排放! ERROR:__main__:无法解析negative_input_ids: 哈哈天气什么的随便啦,不如聊聊游戏? Map: 100%|████████████████████████████████████████████████████████████████████████| 1/1 [00:00<00:00, 67.37 examples/s] 训练集样本示例: {'anchor_input_ids': '你如何看待气候变化?', 'positive_input_ids': '气候变化是严峻的全球危机,我们需要立即采取行动减少碳排放!', 'negative_input_ids': '哈哈天气什么的随便啦,不如聊聊游戏?'} 验证集样本示例: {'anchor_input_ids': '你如何看待气候变化?', 'positive_input_ids': '气候变化是严峻的全球危机,我们需要立即采取行动减少碳排放!', 'negative_input_ids': '哈哈天气什么的随便啦,不如聊聊游戏?'} 0%| | 0/3 [00:00<?, ?it/s]ERROR:__main__:无法解析token IDs: 你如何看待气候变化? ERROR:__main__:无法解析token IDs: 气候变化是严峻的全球危机,我们需要立即采取行动减少碳排放! ERROR:__main__:无法解析token IDs: 哈哈天气什么的随便啦,不如聊聊游戏? You're using a Qwen2TokenizerFast tokenizer. Please note that with a fast tokenizer, using the `__call__` method is faster than using a method to encode the text followed by a call to the `pad` method to get a padded encoding. Traceback (most recent call last): File "C:\Users\28996\Desktop\AI\persona_contrastive_finetuning\Contrastive_Training_LM.py", line 281, in <module> trainer.train() File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\transformers\trainer.py", line 2171, in train return inner_training_loop( File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\transformers\trainer.py", line 2480, in _inner_training_loop batch_samples, num_items_in_batch = self.get_batch_samples(epoch_iterator, num_batches) File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\transformers\trainer.py", line 5156, in get_batch_samples batch_samples += [next(epoch_iterator)] File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\accelerate\data_loader.py", line 567, in __iter__ current_batch = next(dataloader_iter) File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\torch\utils\data\dataloader.py", line 701, in __next__ data = self._next_data() File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\torch\utils\data\dataloader.py", line 757, in _next_data data = self._dataset_fetcher.fetch(index) # may raise StopIteration File "C:\Users\28996\miniconda3\envs\style_tune\lib\site-packages\torch\utils\data\_utils\fetch.py", line 55, in fetch return self.collate_fn(data) File "C:\Users\28996\Desktop\AI\persona_contrastive_finetuning\Contrastive_Training_LM.py", line 96, in __call__ "positive_attention_mask": create_to_attention_mask(batch_positive["input_ids"]), NameError: name 'create_to_attention_mask' is not defined. Did you mean: 'create_attention_mask'? 0%| | 0/3 [00:00<?, ?it/s]
07-21
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值