摘要:在这里,代表照片,也就是形状为的矩阵,是图像被标记的分数。我首先使用这张照片我的分数是,这意味着我的颜值比数据集中的人高。我拍了很多照片,最终我得到了分,这意味着我比数据集中的人更具吸引力。
什么?!颜值“客观化”要进行实质性推进了?
几个月前,华南理工大学发布了一篇关于“颜值评估”的论文及其数据集。
这个数据集包括5500人,每人的长相被从1-5分进行打分。
数据的下载地址如下:
https://github.com/HCIILAB/SCUT-FBP5500-Database-Release
数据集中还包括一些明星。这张Julia Roberts的照片平均得分为3.78:
这张以色列著名模特Bar Refaeli的照片获得了3.7分。
这些分数可能看起来有点低,但3.7分已经代表你的颜值比数据集中约80%的人高了。
在这个数据集上,作者训练了多个模型,试图根据人脸图片评估颜值。
在这篇文章中,我要复现他们的结果,并测一下自己的颜值。
原始论文构造了一系列不同的模型,包括使用人工构造特征的经典ML模型和3种深度学习模型:AlexNet、ResNet18和ResNext50,我希望尽可能简化我的工作(我不想从头开始训练Resnet神经网络模型),我想对现有的模型进行调优。在keras中,有一个称为application的模块,它包含各种不同的预训练过的模型。resnet50就是其中之一。 不幸的是,在keras.applications中没有ResNet18或ResNext50,所以我不能完全复现研究人员之前的研究过程,不过利用resnet50也能足够接近之前的工作。
from keras.applications import ResNet50
ResNet是一个由微软开发的深度卷积网络,它赢得了2015 年的ImageNet图像分类任务竞赛。
在keras中,当我们初始化resnet50模型时,我们创建了一个ResNet50结构的模型,并且下载了在ImageNet数据集上训练的权重。
论文的作者没并有提到他们究竟是如何训练模型的,不过我会尽力做到较好。
我想删除最后一层(“softmax”层)并添加一个没有激活函数的全连接层来做回归。
resnet = ResNet50(include_top=False, pooling=’avg’)
model = Sequential()
model.add(resnet)
model.add(Dense(1))
model.layers[0].trainable = False
print model.summary()
# Output:
Layer (type) Output Shape Param # ================================================================= resnet50 (Model) (None, 2048) 23587712 _________________________________________________________________ dense_1 (Dense) (None, 1) 2049 ================================================================= Total params: 23,589,761
Trainable params: 23,536,641
Non-trainable params: 53,120
你可以看到我把第一层(resnet模型)设置为不可训练的,所以我只有2049个可训练的参数,而不是23589761个参数。
我的计划是训练最后的全连接层,然后以较小的学习率训练整个网络。
model.compile(loss="mean_squared_error", optimizer=Adam())
model.fit(batch_size=32, x=train_X, y=train_Y, epochs=30)
之后,我将第一层改为可训练的,编译模型,并再把模型训练30轮。
在这里,train_X代表照片,也就是形状为(350,350,3)的numpy矩阵,train_Y是图像被标记的分数。
结论
论文使用2种方法训练模型:5折交叉验证和以6:4的比例将数据集分割为训练集和测试集。他们使用皮尔逊相关系数(PC),平均误差(MAE)和均方根误差(RMSE)来测评估模型的结果。以下是他们使用5折交叉验证得到的结果:
这些是他们使用6:4分割数据集获得的结果:
我以8:2的比例分割数据集,所以它类似于执行1折交叉验证。
我得到的结果如下:
非常好的结果。另外,也可以看看散点图和直方图:
原始分数分布(标准化后的):
预测分数分布(标准化后的):
结果看起来不错。现在在我身上试试这个这个神经网络。我首先使用这张照片:
我的分数是2.85,这意味着我的颜值比数据集中52%的人高。不得不说我有点失望,我以为我的分数会高一些,所以我试图提高我的分数。
我拍了很多照片,最终我得到了3.15分,这意味着我比数据集中64%的人更具吸引力。
这比之前好很多了,不过我必须诚实地说,我希望还能更高:)
最后一点,我使用Google Colaboratory构建和调整了这个模型,简而言之,Google Colaboratory能为你提供一个免费使用GPU的python notebook!
原文链接:
https://towardsdatascience.com/how-attractive-are-you-in-the-eyes-of-deep-neural-network-3d71c0755ccc
欢迎加入本站公开兴趣群商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/4768.html
摘要:那个月就是对着和的文档写出来了网站的前后端,也是第一次买服务器备案网站做反向代理读文档学做,怀念那些时光,让现在的网站有了基础。因此,管理系统听歌台被抽离成了单独的应用,后台利用做反向代理,用二级域名记性访问。 不知道你是否也有想过完全用自己的代码实现自己的个人博客?定制专属 UI、定制专属逻辑、在信息爆炸的时代真正地沉淀下属于自己的东西。我也曾经历了同样的纠结,最终下定决心做了自己的...
摘要:四结语七夕已至,快和亲爱的人绑定最美恋爱关系吧在这里,你们就是导演,记录美好爱情。特别说明此小程序,是我亲手为女朋友写的,感谢她提供需求支持,七夕快乐。 showImg(https://segmentfault.com/img/remote/1460000020001501?w=779&h=203); 一、前言 像每一滴酒回不了最初的葡萄,我回不到年少。爱情亦是如此,这就是写一篇小程序...
摘要:本图中的数据收集自利用数据集在英伟达上对进行训练的实际流程。据我所知,人们之前还无法有效利用诸如神威太湖之光的超级计算机完成神经网络训练。最终,我们用分钟完成了的训练据我们所知,这是使用进行训练的世界最快纪录。 图 1,Google Brain 科学家 Jonathan Hseu 阐述加速神经网络训练的重要意义近年来,深度学习的一个瓶颈主要体现在计算上。比如,在一个英伟达的 M40 GPU ...
阅读 2771·2021-10-26 09:48
阅读 1594·2021-09-22 15:22
阅读 3918·2021-09-22 15:05
阅读 567·2021-09-06 15:02
阅读 2570·2019-08-30 15:52
阅读 2072·2019-08-29 18:38
阅读 2718·2019-08-28 18:05
阅读 2310·2019-08-26 13:55