Category Archives: 他山石

他山石 梦游记 美图酷图

峨眉山

记得读高中时,有个爱看武侠的同学,每次见到我都会来一句“你怎么不叫蒋峨眉?”

哈哈,对于大部分非四川的同学,估计都是在“倚天屠龙记”里第一次听说峨眉山,而且大概率是李连杰电影版的倚天屠龙记——“围攻光明顶”可算是金庸武侠的名场面之一。不过,小说里的光明顶在昆仑山,可其实光明顶在峨眉~~O(∩_∩)O哈哈~。另外,小说里峨眉派是道教,可现实是,魏晋时峨眉确实道教兴盛,但到了隋唐,佛教盛行,到明清时,峨眉基本就只有佛寺了,而且成了传说中“普贤菩萨的道场”。再到当代,更是“佛教四大名山之一”,山上分布着大大小小十几处寺庙

这次出来,本来目标是“318国道-拉萨-珠峰大本营”一线,顺道去了张家界和黄山,既然路过四川,也就顺便把峨眉山也逛了。从张家界到峨眉山市,又是一千公里,一天时间刚好。

峨眉山月半轮秋,影入平羌江水流。
夜发清溪向三峡,思君不见下渝州。
——李白 《峨眉山月歌》

峨眉第一亭

峨眉山

一首隔壁眉州老乡的思乡词

归去来兮,吾归何处?万里家在岷峨。
百年强半,来日苦无多。
坐见黄州再闰,儿童尽楚语吴歌。
山中友,鸡豚社酒,相劝老东坡。
云何,当此去,人生底事,来往如梭。
待闲看秋风,洛水清波。
好在堂前细柳,应念我,莫剪柔柯。
仍传语,江南父老,时与晒渔蓑。
——苏轼 《满庭芳·归去来兮》

山亭

万年寺

接引殿

洗象池

清音阁

一线天

一线天,换个角度

金顶

当然,峨眉山最有名的,还有它的猴子

峨眉猴

峨眉猴

最后,来一首李白版的“月亮代表我的心”

我在巴东三峡时,西看明月忆峨眉。
月出峨眉照沧海,与人万里长相随。
黄鹤楼前月华白,此中忽见峨眉客。
峨眉山月还送君,风吹西到长安陌。
长安大道横九天,峨眉山月照秦川。
黄金狮子乘高座,白玉麈尾谈重玄。
我似浮云殢吴越,君逢圣主游丹阙。
一振高名满帝都,归时还弄峨眉月。
——李白 《峨眉山月歌送蜀僧晏入中京》

 

 

他山石 梦游记 美图酷图

张家界

千丈绝壁挂金松,万尺深涧锁玉龙。
百仗留得佳话在,两壁对插白云中。
—-宋·佚名《咏张家界》

行者无疆,告别美丽的黄山,再次踏上西行之路~~沿高速一路向西,一口气开出近1000公里,来到了湖南张家界。第二天一早,先来到武陵源景区……再次被大自然的鬼斧神工所震撼。

 天子山

峡高百丈洞云深,要识桃源此处寻。
戎旅徐行风雪紧,谁将兴尽类山阴。
—-明·胡桂芳《咏百丈峡》

袁家界

索溪峪

十里画廊

缥缈云烟画卷开,凝香染墨净尘埃。
幽姿淑态呈祥瑞,水色山光着眼来。
百鸟齐鸣深涧响,众仙恭立向王台。
千杯寻醉非虚幻,焉问刘郎谁与栽。 

金鞭溪

金鞭溪

黄石寨

寻常山里数青峰,玉笋成群插楚封。涧道冻云隐斜日,寺门长阪度疏钟。
古苔一望迷幽径,峭壁千年挂老松。玉垒匡庐曾浪迹,巨灵移岳此重逢。
—-明·夏子云诗

 武陵源景区面积很大,在里面整整转了两天,第三天,我们来到了隔壁的天门山和大峡谷景区

天门山

 大峡谷

 

大峡谷

…这张错了,这张不在地球上O(∩_∩)O哈哈~

他山石 梦游记 美图酷图

游黄山

黄山四千仞,三十二莲峰。
丹崖夹石柱,菡萏金芙蓉。
——李白《送温处士归黄山白鹅峰旧居》

一早四点钟从北京出发,一路向南,一直到晚上八点,行程1300公里终于到达目的地:黄山汤口镇。一夜无话,第二天早早起来前往本次黄山游的起点:慈光阁

~~嘿嘿,节约点体力,先走索道直接到迎客松。记得小时候家里客厅挂的画就是“黄山迎客松”,今天终于看到真的了

迎客松

 天都峰

莲花峰

 鳌鱼峰

折腾一天,终于来到了光明顶~~哈哈,没错,光明顶不在昆仑,而是在黄山。下山休息太绕,光明顶酒店小睡一晚,一千多块…心疼ε=ε=ε=(#>д<)ノ

第二天,早早起来继续逛,开始进入后山

“猴子观海”

“飞来石”

始信峰

峰奇石奇松更奇,云飞水飞山亦飞。
——魏源《黄山绝顶题文殊院》

宽围白浪身千叶,峭入青天手一藤。
——汤宾尹《同友人游黄山》

人间多少佳山水,独许黄山胜太华。
——老舍《咏黄山》

且持梦笔书奇景,日破云涛万里红。
——《登黄山偶感》

 over~~奇美黄山之旅就到这里 O(∩_∩)O哈哈~

 

他山石

[转]python Pandas 常用方法备忘

关键缩写和包导入
缩写:

df:任意的Pandas DataFrame对象
s:任意的Pandas Series对象
导入包:

import pandas as pd
import numpy as np

导入数据
pd.read_csv(filename):从CSV文件导入数据
pd.read_table(filename):从限定分隔符的文本文件导入数据
pd.read_excel(filename):从Excel文件导入数据
pd.read_sql(query, connection_object):从SQL表/库导入数据
pd.read_json(json_string):从JSON格式的字符串导入数据
pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格
pd.read_clipboard():从你的粘贴板获取内容,并传给read_table()
pd.DataFrame(dict):从字典对象导入数据,Key是列名,Value是数据

导出数据
df.to_csv(filename):导出数据到CSV文件
df.to_excel(filename):导出数据到Excel文件
df.to_sql(table_name, connection_object):导出数据到SQL表
df.to_json(filename):以Json格式导出数据到文本文件

创建测试对象
pd.DataFrame(np.random.rand(20,5)):创建20行5列的随机数组成的DataFrame对象
pd.Series(my_list):从可迭代对象my_list创建一个Series对象
df.index = pd.date_range(‘1900/1/30’, periods=df.shape[0]):增加一个日期索引

查看、检查数据
df.head(n):查看DataFrame对象的前n行
df.tail(n):查看DataFrame对象的最后n行
df.shape():查看行数和列数
df.info():查看索引、数据类型和内存信息
df.describe():查看数值型列的汇总统计
s.value_counts(dropna=False):查看Series对象的唯一值和计数
df.apply(pd.Series.value_counts):查看DataFrame对象中每一列的唯一值和计数

数据选取
df[col]:根据列名,并以Series的形式返回列
df[[col1, col2]]:以DataFrame形式返回多列
s.iloc[0]:按位置选取数据
s.loc[‘index_one’]:按索引选取数据
df.iloc[0,:]:返回第一行
df.iloc[0,0]:返回第一列的第一个元素

数据清理
df.columns = [‘a’,’b’,’c’]:重命名列名
pd.isnull():检查DataFrame对象中的空值,并返回一个Boolean数组
pd.notnull():检查DataFrame对象中的非空值,并返回一个Boolean数组
df.dropna():删除所有包含空值的行
df.dropna(axis=1):删除所有包含空值的列
df.dropna(axis=1,thresh=n):删除所有小于n个非空值的行
df.duplicated():判断重复数据记录
df.drop_duplicates():删除数据记录,可指定特定列或全部
df.fillna(x):用x替换DataFrame对象中所有的空值
s.astype(float):将Series中的数据类型更改为float类型
s.replace(1,’one’):用‘one’代替所有等于1的值
s.replace([1,3],[‘one’,’three’]):用’one’代替1,用’three’代替3
df.rename(columns=lambda x: x + 1):批量更改列名
df.rename(columns={‘old_name’: ‘new_ name’}):选择性更改列名
df.set_index(‘column_one’):更改索引列
df.rename(index=lambda x: x + 1):批量重命名索引

数据处理:Filter、Sort和GroupBy
df[df[col] > 0.5]:选择col列的值大于0.5的行
df.sort_values(col1):按照列col1排序数据,默认升序排列
df.sort_values(col2, ascending=False):按照列col1降序排列数据
df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列数据
df.groupby(col):返回一个按列col进行分组的Groupby对象
df.groupby([col1,col2]):返回一个按多列进行分组的Groupby对象
df.groupby(col1)[col2]:返回按列col1进行分组后,列col2的均值
df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):创建一个按列col1进行分组,并计算col2和col3的最大值的数据透视表
df.groupby(col1).agg(np.mean):返回按列col1分组的所有列的均值
data.apply(np.mean):对DataFrame中的每一列应用函数np.mean
data.apply(np.max,axis=1):对DataFrame中的每一行应用函数np.max

数据合并
df1.append(df2):将df2中的行添加到df1的尾部
df.concat([df1, df2],axis=1):将df2中的列添加到df1的尾部
df1.join(df2,on=col1,how=’inner’):对df1的列和df2的列执行SQL形式的join

数据统计
df.describe():查看数据值列的汇总统计
df.mean():返回所有列的均值
df.corr():返回列与列之间的相关系数
df.count():返回每一列中的非空值的个数
df.max():返回每一列的最大值
df.min():返回每一列的最小值
df.median():返回每一列的中位数
df.std():返回每一列的标准差

转自:https://www.cnblogs.com/feiqixia/p/11241925.html

他山石

几个简单的推荐算法图解(转)

1. 基于内容的推荐:

上图给出了基于内容推荐的一个典型的例子,电影推荐系统,首先我们需要对电影的元数据有一个建模,这里只简单的描述了一下电影的类型;然后通过电影的元数据发现电影间的相似度,因为类型都是“爱情,浪漫”电影 A 和 C 被认为是相似的电影(当然,只根据类型是不够的,要得到更好的推荐,我们还可以考虑电影的导演,演员等等);最后实现推荐,对于用户 A,他喜欢看电影 A,那么系统就可以给他推荐类似的电影 C。

2. 基于用户的协同过滤推荐(User-based Collaborative Filtering Recommendation)

上图示意出基于用户的协同过滤推荐机制的基本原理,假设用户 A 喜欢物品 A、物品 C,用户 B 喜欢物品 B,用户 C 喜欢物品 A 、物品 C 和物品 D;从这些用户的历史喜好信息中,我们可以发现用户
A 和用户 C 的口味和偏好是比较类似的,同时用户 C 还喜欢物品 D,那么我们可以推断用户 A 可能也喜欢物品 D,因此可以将物品 D 推荐给用户 A。

3. 基于项目的协同过滤推荐(Item-based Collaborative Filtering Recommendation)

上图表明基于项目的协同过滤推荐的基本原理,用户A喜欢物品A和物品C,用户B喜欢物品A、物品B和物品C,用户C喜欢物品A,从这些用户的历史喜好中可以认为物品A与物品C比较类似,喜欢物品A的都喜欢物品C,基于这个判断用户C可能也喜欢物品C,所以推荐系统将物品C推荐给用户C。
———
转自:https://www.zhihu.com/question/19971859