计算机应用,2018, 38(4): 1007 - 1011,1022文章编号:1001-9081(2018)04-1007-05
2018-04-10
http: //www. joca. cn
DOI:10.11772/j. issn. 1001-9081.2017092238
融合项目标签相似性的协同过滤推荐算法
廖天星,王玲*
(西南石油大学计算机科学学院,成都610500)(*
通信作者电子邮箱wangling@ swpu. edu. cn)
摘要:针对传统推荐算法在相似性计算和评分预测方法中存在预测精度和稳定性的不足,为进一步提高算法
精确度和稳定性,提出一种新的推荐算法。首先,依据各项目的重要标签的数量,计算出项目间M2相似性,依据该相 似性构成该项目的邻近项目集;然后,参考Slope One加权算法思想,定义了新的评分领测方法;最后,使用该评分方法 基于邻近项目集对用户评分进行预测。为了验证该算法的准确性和稳定性,在MovieLens数据集上与基于曼哈顿距 离的足-最近邻(KNN)算法等传统推荐算法进行了对比,实验结果表明该算法与KNN算法相比平均绝对误差下降 7.6% ,均方根误差下降7. 1%,并且在稳定性方面也更好,能更准确地为用户提供个性化推荐。
关键词:项目相似性;标签;X近邻;协同过滤推荐算法 中图分类号:TP301
文献标志码:A
Collaborative filtering recommendation algorithm combined with item tag similarity
LIAO Tianxing, WANG Ling
(College of Computer Science, Southwest Petroleum University, Chengdu Sichuan 610500, China)
Abstract: Aiming at the shortages in similarity calculation and rating prediction in traditional recommendation system, in
order to further improve the accuracy and stability of the algorithm, a new recommendation algorithm was proposed. Firstly, according to the number of important labels for an item, the M
2 similarity between the item and other items was calculated,
which was used to constitute the nearest item set of the item. Then, according to the Slope One weighting theory, a new rating prediction method was designed to predict users, ratings based on the nearest item set. To validate the accuracy and stability of the proposed algorithm, comparison experiments with the traditional recommendation algorithms including ^-Nearest Neighbor
(KNN) algorithm based on Manhattan distance were conducted on MovieLens dataset. The experimental results showed that
compared with the KNN algorithm, the mean absolute error and the root mean square error of the new algorithm were decreased by 7. 6% and 7. 1% respectively. Besides, the proposed algorithm performs better in stability, which can provide more accurate and personalized recommendation.
Key words: item similarity; label; ^-Nearest Neighbor (KNN); collaborative filtering recommendation algorithm
〇引言
随着数据信息量的增多,为了帮助用户快速找到想要的 信息,推荐系统作为处理数据过载问题的有效手段应运而生, 并且被广泛地应用在各大个性化网站上,例如亚马逊网站、豆 瓣网站等。在电子商务中,个性化的推荐系统已成为当下最 强大和最流行的工具之一,并为商业带来了巨大的价值[1]。在推荐系统中,协同过滤推荐系统作为一种成功的推荐 系统被广泛地应用[2]。当前,协同过滤(Collaborative
Filtering, CF
流协同过滤算法是Slope One[7],它的基本思想是分析其他项 目与目标项目之间的平均评分差异来预测出目标项目的评 分。由于这些推荐算法在预测精度上存在提升的空间,本文
提出了高精度M2_KSP算法。该算法将KNN用于用户的分 类方法变为用于项目的分类方法,将针对Slope One算法忽略 项目间关联的问题提出的Slope One加权算法用于设计新的 评分预测方法。
M
2_KSP算法是一种基于项目的协同过滤推荐算法,该
算法的提出首先是通过对KNN算法的研究,发现传统的相似 度计算方法如曼哈顿距离、余弦距离等都太过于依赖用户的 评分,忽略了项目属性[8]的问题,为解决此问题设计了在算 法中融人能够代表项目属性的标签[9]来计算项目间相似度 的方法,即M2相似性。然后为了降低评分预测时的计算量, 设计使用M2相似性来获得个邻近项目。最后在参考Slope
One加权算法思想下又设计了新的评分预测方法,并基于这
)推荐算法分为基于记录(memory-based)的协同
过滤算法[3]和基于模型(model-based)的协同过滤算法[4],而 基于内存的协同过滤又分为基于用户的协同过滤(User-
Based Collaborative Filtering,UBCF
)和基于项目的协同过滤
(Item-Based Collaborative Filtering, IBCF) [5_6]。现在主流的 基于用户的协同过滤算法是最近邻(K-Nearest Neighbors,
KNN
)算法,它的基本思想是寻找与目标用户最相近的&个邻 个邻近项目用户的评分预测出目标用户的评分。M2_KSP算 法根据KNN算法和Slope One加权算法的理论思想而设计,
居,使用邻居的评分来预测目标用户的评分。基于项目的主
收稿日期:2017-09-13 ;修回日期:2017-11-25。 基金项目:国家自然科学基金资助项目(41674141)。
作者简介:廖天星(1992—),女,四川达州人,硕士研究生,主要研究方向:推荐算法、机器学习;王玲(1966—),女,四川眉山人,教授,博 士,主要研究方向:智能算法、模式识别。
1008
计算机应用
第38卷
结合了这两个算法各自的优点,在减少数据计算量的同时又 确保了预测评分方法的简单性。
为了验证本文算法的准确度,进行了与基于曼哈顿距离 的KNN算法等协同过滤推荐算法的对比实验。实验数据使 用了著名的MovieLens数据集,采用Leave-One-Out方法[1°]和 推荐系统评价指标平均绝对误差(Mean Absolute Error,
MAE
)和均方根误差(Root Mean Square Error, RMSE)来评价
算法的性能。实验结果表明,本文m2_ksp
算法具有较高的
预测准确度和很好的算法稳定性。
1相关工作
1.1基于项目的协同过滤算法
基于项目的协同过滤(IBCF)算法的运算方式一般为:首 先使用Leave-One-Out交叉验证方法将数据集划分为训练集 和测试集,然后基于训练集数据采用相似性度量方法找到目 标项目的相似项目,接着利用相似性作为评分预测算法的权 重预测出测试集的评分,最后使用推荐算法评价指标评价算 法的质量。这种推荐算法的评分预测都是基于用户评分矩阵 的基础之上,可见用户的评分矩阵对推荐算法而言比较重要, 故本文将所有项目财=i m。,…,
1所对应的全部用
户
,…,1^+丨的评分排列组合成用户项目评分矩
阵/f,如式(1)所示:
R:UxM
(1)
为使得表示更加明了,这里将矩阵表示为/f =
足,,表示用户;对项目j的评分。根据项目的评分规则,有〇矣
矣5,表1是用户评分矩阵的一个示例。
表1
用户评分矩阵示例
Tab. 1 Example of user rating matrix
用户项目
m0m2
^0
2503U10321U2
3
4
1
2
表1中,M = j m。,/t^ ,m2 ,m3 1表示不同的项目,C/ = j u。, !«1,7^2丨表示不同的用户,氏,;=丨2,5,0,3,0,3,2,1,3,4,1, 2丨。如
果
= 0,表本用户i未对项目/评分。
1.2 KNN算法
对于预测目标用户的评分,可以通过KNN协同过滤推荐 算法预测该用户对目标项目的评分。由于KNN算法的理念 是以用户为中心,寻找用户与用户之间的距离,根据距离的大 小来寻找邻近的用户,以邻近的用户都会有相近的评分为原 理来预测评分,所以KNN算法的核心是定义用户间相似度。 这种方法对用户进行了分类,使用参数确定用户邻居的数 量,通过设置阈值来过滤掉相似度低的用户,其中为了衡量用 户间相似度,可以使用欧氏距离和余弦距离[11]计算用户间的
距离,距离越近越相似。KNN算法预测评分的计算方法如式(2)所示:
^ p=0
其中:,为目标用户i对目标项目y的预测评分;x为邻居的
数量;为邻近用户p对目标项目j的评分。
1.3 Slope One加权算法
用于推荐系统的Slope One算法是基于项目之间相互存 在的评分差异,不考虑项目之间的相似性直接根据评分的平 均差异来预测用户的评分。Slope one算法以其简单性和不错 的推荐质量被普遍地应用,当前一部分人针对Slope One算法 忽略项目间的内在关联™提出了一种改进方法,将项目所占 的权重引人Slope One算法中,即为Slope One加权算法[13]。 在推荐系统中应用该算法预测目标用户的评分,其计算表达 式如式(3)所示:
= 7X71=0( v — s
~
+Ri,n/
)*W~
⑶
其中:先,,为目标用户(对目标项目y的估计评分^为同时为 目标项目j和其他项目m评分的用户数量;/i为目标用户对其 他项目的评分数量为其他项目m的归一化权重。
2 本文算法
本文M2_KSP算法是一种基于项目的协同过滤算法,符 合一般的基于项目的协同过滤算法通常的运算方式。该算法 首先针对例如传统曼哈顿距离计算方法完全依赖用户评分表 而忽略项目属性的问题,重新定义了项目相似度计算方法,提 出将项目的标签融人计算中;然后为了获得较好的相似度计 算效果又提出了通过阈值获得重要标签的方法;最后使用该 相似度作为算法的权重来更好地预测出用户的评分。2.1 项目的标签
针对大多数推荐算法的相似度计算都是基于用户的评分 而忽略了项目的属性,本文引人了项目的标签来定义项目相 似度。标签可以概括性地描述一个项目,相当于使用离散的语 言将项目的特点分离出来。本文使用项目的标签集建立项目
标签矩阵。将项目M ,…,和其所拥有的所
有标签r = ,…,^…丨排列组合成该项目标签数量矩
阵i,如式(4)所示:
L,T x M
(4)
为使得表示更加明了,这里将矩阵表示为i =
项目>对应标签;的数量表示为表2是项目标签矩阵的一 个示例。
表2
项目标签数量矩阵示例
Tab. 2 Example of item label number matrix标签
项目
m0mjm2m3
To132018h016251h
21
1
11
1
如表2所示,M = j m。,7?^,m2 ,m3丨表示不同的项目,r =
IfoAAl
表示不同的标签人,.=|13,2,0,18,0,16,25,1,
2i,i,ii,il。如果
= 〇,表示项目y不含标签l
2.2 M2相似性
传统的相似性计算方法强调根据用户的评分相似可以发 现用户间相似的偏好,但是由于忽略了项目的属性则不能更 好地刻画项目间的相似性,所以本文提出用代表项目属性的
第4期廖天星等:融合项目标签相似性的协同过滤推荐算法
1009
标签来定义新的项目间相似性计算方法,即M2相似性。M2 相似性依据越相似的项目之间总是具有越多相同的特征属性 的理论,这个理论类比于相似的用户间具有更多相同的偏好, 这样在理论上可以找到相似的项目。依据理论首先将式(4) 中每个标签都看作为物品的一种属性,那么这里的特征属性
是指项目具有的重要标签,可以通过设置标签重要度阈值找 到重要标签。为了衡量项目中每个标签的重要程度,采用了常 用于评估文件中字词重要性的加权技术,即词频文档频率
(Term Frequency-Inverse Document Frequency, TF-IDF)
方
法[14],该方法的计算表达式如式(5)所示:
W, = (I +ln5;) *ln(-^-)
(5)Li,t
其中:%为目标项目i中标签f的重要度;4,,为目标项目《中 标签t的数量A
为目标项目i中所有标签的数量总和;/表示
整个项目的数量。
为了量化两个项目间的相似性,本文提出将目标项目所 有重要标签与另一个项目的重要标签分别对应相乘累和的方 法,计算所得值越大相似度越高,反之则越低。M2相似性具 体计算过程为首先通过标签的重要度找到目标项目的重要标签,然后将目标项目与其他项目按照重要标签的数量比例对 应相乘,同时并乘上该标签的重要度数值。故本文提出的M2 相似性定义方法不同于传统相似性如曼哈顿距离、佘弦距离 的计算方法,并且有助于下文提及的评分预测算法更快速地 预测出目标用户的评分。该相似性的计算公式如式(6)所 示:
M
,,-2 = M,*Mj = X
(6)
t=0
其中:叫,/为目标项目;和其他项目j之间的相似性;g为重要 标签数;
为其他项目y中标签f的数量4为其他项目y中所
有标签的数量总和。2.3 动态尺邻近项目
参考KNN算法用于预测用户评分的思想,此处用来寻找 个邻近的项目,这样做的好处是使用这&个邻近项目用户的 评分来预测出目标用户的评分,可以减少评分预测算法的计 算量。首先根据式(6)定义的M2相似性方法计算出项目间的 相似性,然后使用Rank排序方法对相似度排序即可找到每个 项目M =丨m。m
,…,
丨的前个最邻近项目,在表3中
列举了项目m。的两个邻近项目。
表3
项目mQ的两个邻近项目示例
Tab. 3 Example of two neighbors of item称發
项目
m0m2
m3以〇
203Ul021u2
3
1
2
如表3所示> =2,目标项目的最邻近两个项目为
m2、m3。2.4评分预测算法
基于这个邻近项目的用户评分,使用参考Slope One加 权算法设计的新评分预测算法预测用户评分的方法本文称为
M
2_KSP算法。M2_KSP算法不同于Slope One加权算法,
Slope One
加权算法采用项目间的加权平均评分差异来预测
评分,侧重于计算目标项目与单个项目之间加权平均评分的 差异;而本文M2_KSP算法则侧重于计算目标项目与所有邻 近项目整体的加权平均评分的差异。本文算法的计算过程 为:首先计算目标项目平均评分,然后计算出与邻近项目整体 加权平均评分的差值,最后将这个差值加到目标用户的平均 评分上,由此预测出目标用户的评分。M2_KSP算法的时间 复杂度为〇( ™ + m),相对于Skpe One加权算法以及KNN算 法的时间复杂度更低,其评分预测方法的表达式如式(7)所
示:
k-1
^+ (s- ■
b=0
(?)
其中:先,;表示预测评分A表示目标用户的平均评分内表示 目标项目的平均评分表示邻近项目6的平均评分4表示 邻近项目的数量;%为邻近项目6的M2相似度归一化权重。 使用M2_KSP算法预测目标用户《。对目标项目m。评分的范 例如表4所示。
表4
目标项目
的评分矩阵
Tab.4 Rating matrix of
the target item m〇标签
项目
m0
m2m3R
33Ul2.021u2
3.012平均评分&
2.5
2
2
由式(7)得,及(u〇,m。)=、+卜。-,在本
例中,& = 2,、=
= 3 jm〇 =
=
2. 5,名 ^ % =
3 + ^ + 1 *〇,6+3 + ^ + 2*0.4 = 2,R(a〇,m〇) = 3 + (2.5-2) = 3.5。
本文所提出的融合项目标签相似性的协同过滤推荐算法
(M2_KSP)的运算步骤如下所示:
输入标签矩阵i和评分矩阵K,邻近项目数L目标用户;,目标 项目j。
输出预测评分值及。
1) 根据式(6)生成项目间的相似性矩阵F;2) 根据F矩阵形成&个邻近项目评分矩阵;3)
初始化csum = 0; c = 0
=
0; = 0;6犯爪=0; 6 = 0;
4) for a = 0 to - 1
5) csum+ = ra ; ; C+ + ;6) _c. csum
J =----c
;7) end for a8) for / = 0 to m - 19)
sum + = r- y; 5 + + ;
10) _
sum
11) end for/
12) for b = 0 to /c - 113) if(rt^ < IE-6)
1010
计算机应用
第38卷
14)
continue;
15) end if16) bsum + = ch *17) end for 618) bsum — bsum\\
19) 先,> =(5 - &■) + A;
3实验与分析
3.1实验的数据
本文选择的是GroupLens Research小组所收集的最新的
带标签的 MovieLens 数据集(
http://grouplens. org/datasets/ movielens/),该数据集含有24404096个评分,668 953个标签
和40110部电影。在本次实验中,随机从该数据集中选取了 前1000部电影和与之对应相关的11 102个用户,7951个标 签作为实验的数据来进行实验。本次实验数据集的稀疏度为 97.65%,实验数据的用户评分比例如图1所示。
■ 12
3
4
用户的评分图1
用户评分比例
Fig. 1 Percentages of user ratings
3.2推荐算法评价指标
平均绝对误差(Mean Absolute Error, MAE)是评价推荐 算法质量的标准之一,作为推荐系统的评价指标被广泛地应 用于算法质量的评价[16]。本文使用作为推荐算法准确 性的度量,在实验结果中的值越小表示该算法的平均绝 对误差越小,即该算法的准确度越好。MAS的计算公式如式(8)所示:
其中是实验数据中的真实评分;免,,是预测评分;/v是测 试集数据的数量。
推荐算法的另一个评价指标是均方根误差(Root Mean
Square Error, RMSE
)[17]。本文为更准确地衡量该算法的预测
效果,也使用了 AMSS评价方法来衡量预测值与真实值之间 的偏差。fiMSE的计算公式如式(9)所示:
RMSE = (9)
其中是实验数据中的真实评分;免,,是预测评分;/V是测 试集数据的数量。3.3实验结果与分析
在实验过程中,首先使用Leave-One-Out交叉验证方法将 实验的数据划分为训练集和测试集。为了找到最优的标签重 要度阈值a,进行了阈值a在不同取值时对算法的准确度所造 成影响的实验,实验结果如图2所示。接着通过设置最优阈值
a
获得项目的重要标签并且使用重要标签的数量计算项目间
相似度。然后,对相似度进行rank排序获得目标项目的/c个邻 近项目。最后,基于这个邻近项目的评分,使用新定义计算 目标项目与整个邻近项目的平均评分差异的方法预测用户的 评分。同时,为了比较该算法的预测性能,在相同的数据集上 将本文提出的M2_KSP算法与其他推荐算法进行实验。
对比算法包括:基于曼哈顿距离的K
NN
算法(称为
M_KNN)
、使用M
2
相似性作为权重的Slope One加权算法(称
为
M2_Sl〇Pe One
算法),以及本文M2_KSP算法。M
_KNN
算
法是使用曼哈顿距离计算相似度的K
NN
协同过滤推荐算法,
M2_Slope One
是一种使用M
2
相似性的Slope One加权协同过
滤推荐算法,这些算法都是比较流行的协同过滤推荐算法。
在M2_KSP算法中通过设置阈值a来找到项目的重要标 签,具体方法为判断项目的标签重要度是否大于a,若是则表 明该标签为重要标签。阈值选取越合理越能获得真正重要的 标签。本文为了设置最佳阈值a进行了相关实验,结果如图2 所示a的取值为每个标签的权重在项目标签权重总值中所占 的比例,随着&值的变化在a的取值从大到小的过程中,所取 得的算法的平均绝对误差值形成折线变化趋势,且每条折线 间的距离越来越靠近,当a的取值分别为0.001、0.0005、 0. 0003时这三条折线几乎完全重合,可学习到该算法最佳的 阈值范围为0.0003 ~ 0.001,算法的阈值设置在这个范围内 更加合理,故本文算法的最优阈值a取值为〇. 〇〇〇 5。
图2在阈值a影响下算法的平均绝对误差
Fig. 2 Mean absolute error of the proposed algorithm under
different threshold a
表5
不同算法的M4£值和值比较
Tab. 5 Comparison of MAE and RMSE values of different algorithms
算法MAE
RMSE
M_KNN
0.7640.974M2_SlopeOne
0.7270.952m
2_ksp
0.688
0.903
由图3和表5可知,在M4£评价标准下,随着的不同取 值,本文提出的基于a的最优阈值M2_KSP算法取得的最小 误差明显比MJCNN算法的最小误差值小很多,即M2_KSP算 法的准确度明显高于M_KNN算法,同理也略高于M2_Sl〇Pe
One算法。通过图3
的实验结果表明,M2_KSP算法是一种预
测准确度较好的协同过滤推荐算法。
第4期廖天星等:融合项目标签相似性的协同过滤推荐算法1011
m
2_ksp
-M_KNN M2_Slope One
3VN0.70
0.68 0.66
10 20 30 40 50 k
60 70 80 90 100
图3
不同算法的平均绝对误差对比取10 ~ 100)Fig. 3 Comparison of mean absolute error of different algorithms with k from 10 to 100
由图4和表5可知:本文M2_KSP算法在TfMSS评价标 准中相对于M_KNN算法同样具有一个相对较低的误差值, 并且在取值大于30时,M2_KSP算法的误差值低于
M
2_Sl〇Pe One算法,由此再次验证了 M2_KSP算法预测精度
好于M_KNN算法,同时也略优于M2_Sl〇Pe One算法。再结 合图3的实验结果综合得出,本文提出的M2_KSP协同过滤 算法的推荐准确度是更加精准的,推荐的质量也是更加优秀 的。
1.05
• 〇 m2_ksp
-»-M_KNN
M2一Slope One
1.00
0.95
0.90
10 20 30 40 50 60 70 80 90 100
k
图4不同算法的均方根误差对比
Fig. 4 Comparison of root mean squeire errors of different algorithms
为了观测m2_k
sp
算法的稳定性,进行了加大A取值范
围的实验,实验结果如图5所示。
1.4
1.21.0 hj 0.8 ^ 0.6
0.4
0.2
0.0
100 200 300 400 500 k
600 700 800 900
图5
不同算法的平均绝对误差对比(ft取100 ~900)Fig. 5 Comparison of mean absolute error of different algorithms with k from 100 to 900
从图5中三种算法的误差对比分析可知:在相同数据集 下
M2_KSP
算法在不同的A值下的平均绝对误差值的变化最
小,并且稳定在最小的误差值范围内;但是M2 Slope One算法
取得的M
AS
值变化幅度则更大、稳定性更差;M_KNN
算法取得的M4£值变化幅度最大且波动在最大的误差值范围内、稳 定性最差。所以本文提出的M2_KSP算法相比而言具有更好 的稳定性。综上所述,M2_KSP算法无论是在评价标准 下还是在评价标准下都表现出更精确的预测评分准确 度、更好的推荐质量、更优秀的算法稳定性,故本文提出的M2 _KSP算法是一种可行有效的、具有更高准确性和更好稳定性
的协同过滤推荐算法。
4
结语
本文参考KNN算法的思想,首先依据重要标签数量定义
了项目间M2相似性,该相似性旨在寻找目标项目最邻近的k 个项目。然后基于这个邻近项目用户的评分,并通过对
Slope One
加权算法的研究设计了 M2_KSP评分预测算法。
本文算法依据KNN算法思想和Slope One加权算法理论设计 而成,故具有一定的理论依据,同时也结合了这两个推荐算法 各自的优点,在减少算法计算量的同时又保证了算法的简单 性。实验结果表明,本文算法表现出了更好的准确性,符合预 期的猜想,并且还具有很好的稳定性。总而言之,本文算法具 有更精确的准确度、更优秀的推荐质量和良好的稳定性。从
图3 ~4中可知随着A值变大,算法的误差率逐渐降低,即评 分数据量越多算法的预测准确度越高,而目前用户评分矩阵 比较稀疏,计划未来在减小评分矩阵的稀疏度上能提出好的 方案。
由于本文算法是采用Leave-One-Out交叉验证方法,该方 法在数据的样本数量较大时需要消耗的时间较多,未来为了 更好地实现实时的推荐可以考虑采用并行化计算方法来减少 计算所需的时间。参考文献(References)
[1] RICCI F, ROKACH L, SHAPIRA B. Recommender systems: intro
duction and challenges[ M]// RICCI F, ROKACH L, SHAPIRA B. Recommender Systems Handbook. Berlin: Springer, 2015: 1 -34.[2] BOBADILLAJ,ORTEGA F, HERNANDO A, et al. Recommender
systems survey[ J] • Knowledge-Based Systems, 2013, 46: 109 - 132.
[3] JEONG B, LEE J, CHO H. Improving memory-based collaborative
filtering via similgirity updating and prediction modulation[ J]. Information Sciences, 2010, 180(5): 602-612.
[4] ZHANG H R, MIN F, WANG S S. A random forest approach to
model-based recommendation[ J]. Journal of Information and Computational Science, 2014, 11(15): 5341 -5348.[5]
LU L, MEDO M, CHI H Y, et al. Recommender systems [J]. Physics Reports, 2012, 519(1): 1 -49.
[6] PIRASTEH P, JUNG J J, HWANG D. Item-based collaborative fil
tering with attribute correlation: a case study on movie recommenda- tion[C]// ACIIDS 2014: Proceedings of the 6th Asian Conference on Intelligent Information £ind Database Systems. Berlin: Springer, 2014: 245 -252.
[7] BASU A, VAIDYA J, KIKUCHI H. Perturbation based privacy pre
serving slope one predictors for collaborative filtering[ C]// IFIPTM 2012: Proceedings of the 6th IFIP WG 11.11 International Conference on Trust Mginagement VI. Berlin: Springer, 2017, 374: 17 -35.
(
下转第1022页)
1022
计算机应用
第38卷
dimensional models by constructing vertex distribution on characteristics [J]. Journal of Computer-Aided Design & Computer Graph- ics, 2014, 26(2): 272 -279.)
[J]. Journal of Computer-Aided Design & Computer Graphics,2010, 22(8): 1406-1411.)
[5] 任帅,张瞍,杨涛,等.基于三维模型球型分割的信息隐藏算
法[J].计算机应用,2017,37(9): 2581 - 2584. (REN S, ZHANG T, YANG T, et al. Information hiding algorithm based on spherical segmentation of 3 D model [ J]. Journal of Computer Application, 2017, 37(9): 2581 -2584.)[6]
[11] CARLSON N A, PORTER J R. On the cardinality of Hausdorff
spaces and H-closed spaces [J]. Topology & its Applications, 2017, 160(1): 137 -142.
[12] 吴建国,邵婷,刘政怡.融合显著深度特征的RGB-D图像显
黄祥,谢强.基于细分曲面的抗仿射变换三维模型数字水印算 著目标检测[J].电子与信息学报,2017, 39(9): 2148 -2154.
(WU J G, SHAO T, LIU Z Y. RGB-D saliency detection based on integration feature of color and depth seiliency map [ J]. Journal of Electronics & Information Technology, 2017, 39(9): 2148 - 2154.)
法[C]//中国通信学会第六届学术年会论文集.深圳:国防工 业出版社,2013: 144 -147. (HUANG X, XIE Q. A blind and affine invariant 3D mesh watermark based on mesh subdivison[ C]// Proceedings of the 6th Annueil Academic Conference of the China Communications Association. Shenzhen: National Defense Lndustry Press, 2013: 144 -147.)
[7] 华顺刚,钟庆,李绍帅.基于边折叠网格简化的三维形状变形
[J].大连理工大学学报,2011,51(3): 363 -367. (HUASG, ZHONG Q, LI S S. 3D shape deformation based on edge collapse mesh simplificationf J]. Journal of Dalian University of Technology,2011, 51(3): 363 -367.)
[8] 林金杰,朱代辉,杨育彬,等.3维模型局部高度研究[J].中国
图象图形学报,2011,16(10): 1841 -1849. (LIJJ,ZHUDH, YANG Y B,et al. Three-dimensional model study on local height [J]. Journal of Image and Graphics, 2011, 16( 10): 1841 - 1849.)
[9] PIPAUD I, LEHMKUHL F. Object-based delineation and classifica
tion of alluvial ferns by application of mean-shift segmentation and support vector machines[ J]. Geomorphology, 2017, 293: 178 - 200.
[l〇]
王新宇,詹永照.构造顶点分布特征的三维模型数字水印算 法[J].计算机辅助设计与图形学学报,2014,26(2):272 - 279. (WANG X Y, ZHAN Y Z. A watermarking scheme for three
This work is partially supported by the National Natural Science Foundation of China (61702050, 61402052), the National Innovation and Entrepreneurship Training Program for College Students (201610710036).
REN Shuai,bom in 1982,Ph. D., associate professor. His
research interests include information hiding, information security risk assessment.
ZHANG Tao, bom in 1984, Ph. D., associate professor. Her
research interests include information hiding based on multi-carrier.
XU Zhenchao, bom in 1992, M. S. candidate. His research
interests include information hiding, digital information processing.
WANG Zhen, bom in 1993,M. S. candidate. His research
interests include multi-media data retrieval and authentication.
HE Yuan, bom in 1994, M. S. candidate. Her research interests
include 3D model processing.
LIU Yunong, bom in 1993, M. S. candidate. His research
interests include information hiding based on unconventional carrier.
(
上接第1011页)
[14] 李镇君,周竹荣.基于Document Triage的TF-IDF算法的改进
[J] ■计算机应用,2015, 35(12): 3506 -3510, 3514. (UZJ, ZHOU Z R. Improvement of term frequency-inverse document frequency gilgorithm based on Document Triage [ J]. Joumgil of Computer Applications, 2015, 35(12): 3506 -3510, 3514.)
[15] ANIDORIFON L, SANTOSGAGO J, CAEIRORODRIGUEZ M, et
al. Recommender systems [J]. Communications of the ACM, 2015, 40(3): 56 -58.
[16]
CREMONESI P, GARZOTTO F, NEGRO S, et al. Looking for “Good” recommendations: a comparative evaluation of recommender systems[ C] // INTERACT 2011: Proceedings of the 13th IFIP TC 13 International Conference on Human-Computer Interaction, LNCS 6948. Berlin: Springer, 2017: 152-168.
This work is partially supported by the National Natural Science Foundation of China (41674141).
laborative tagging for enhancing the quality of recommendation [J]. Electronic Commerce Research and Applications, 2010, 9(1): 73 -83.
[8] KIM H N, JI A T, HA I, et al. Collaborative filtering based on col-
[9] PITSILIS G, WANG W. Harnessing the power of social bookmark
ing for improving tag-based recommendations [ J]. Computers in Human Behavior, 2015, 50: 239 -251.
[10] CAWLEY G C. Leave-one-out cross-veilidation based model selec
tion criteria for weighted LS-SVMs[ C]// UCNN 2006: Proceedings of the 2006 International Joint Conference on Neural Networks. Pis- cataway, NJ: IEEE, 2006: 1661 -1668.
[11] ZHENG M, MIN F, ZHANG H R, et al. Fast recommendations
with the M-distance[ J]. IEEE Access, 2016, 4: 1464 -1468.
[12]
李淋淋,倪建成,于苹苹,等.基于聚类和Spark框架的加权 Slope One 算法[J].计算机应用,2〇17, 37(5): 1287 _1291, 1310. (LJ L L, NI J C, YU P P, et al. Weighted Slope One algorithm based on clustering and Spark framework [ J ]. Journal of Computer Applications, 2017, 37(5): 1287 -1291, 1310.)
[13] TIAN S, OU L. An improved slope one algorithm combining KNN
method weighted by user similgirityf C]// WAIM 2016: Proceedings of the 2016 International Conference on Web-Age Information Management. Berlin: Springer, 2016: 88 -98.
LIAO Tianxing, bom in 1992, M. S. candidate. Her research
interests include recommendation algorithm,machine learning.
WANG Ling, bom in 1966, Ph. D. , professor. Her research
interests include intelligence algorithm, pattern recognition.
因篇幅问题不能全部显示,请点此查看更多更全内容