首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

基于tensorflow实现AI图片(NSFW)

雅虎的这个深度神经网络只关注NSFW内容的一种类型,即色情图片。在网上看到了tensorflow实现的版本,进行了测试。...二、实验测试:   将网上搜索的一些图片放到文件夹下,个性访问文件夹的方式来实现对文件夹下面的所有文件进行判断。 print('加载测试图片...').../data/3.jpg:比较奇怪的是,这张图片居然两个得分基本相当,可见其训练数据集主要是女性。 ? '...../data/3.jpg'图片的检测结果为: SFW 得分: 0.48673054575920105 NSFW 得分: 0.5132695436477661 ...../data/1.jpg'图片的检测结果为: SFW 得分: 0.15014633536338806 NSFW 得分: 0.8498536348342896 (注:所有图片均来自于互联网图片搜索,只用于实验用途

6.8K90
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    深夜,使用NSFW尝试一下图片

    前几天公司在讨论的问题,对接了一些厂家提供的服务。由于公司本身就是做音视频领域相关的,的需求量较大。同时秉着「好好学习,天天向上」的精神。想自己试一下相关的东西。...是由yahoo开源的一套的模型。 https://github.com/yahoo/open_nsfw 使用Caffe模型训练而来,主要是针对恐怖,血腥,色情等图片进行鉴别。...「注意:当前仅支持jpeg格式图片」 Results for 'test.jpg' SFW score: 0.9355766177177429 NSFW score: 0.06442338228225708...总分为10分,分值越高,表示该图片越不适合于工作场景。 测试 说实话图片还真是难找,特别是对我,完全就找不到哪里的图片能让分值变成8分以上~ 利用搜索引擎找了几张图片,个人觉得应该要8分以上了。...结果 基于最终的结果,可能我本人的「知识储存有限」,很难获取到能够达到8分以上的图片。只能期望大家俩给我一些灵感或者..嗯~~~你懂得!让我真实的来尝试一下 nsfw的鉴别效果!

    5.8K20

    人工智能“师”

    最近,雅虎利用分类神经网络搭建了一套可以辨别Not Suitable for Work(上班不宜,以下简称NSFW)色情图片的Caffe模型,并将源码搬上了github。...在这里,我们介绍的模型仅限于一种NSFW:色情图片。对于素描、卡通、文本,或者其他类型的内容都不适用这个模型。 ?...Cindy Crawford by Sante D’Orazio, 1993 使用方法 这个网络算法分析图片后会产生一个概率值(在0到1之间),通过这个概率值我们可以过滤一些色情图片。...当概率值小于0.2说明图片安全的可能性很高。当概率值大于0.8时,此图片很可能是不NSFW的。介于之间的概率值可以分为不同等级的NSFW。 我们建议开发人员根据数据、用户案例、图片类型选择合适的阈值。...pic by 筱山纪信 模型简介 我们通过数据来训练模型,其中NSFW图片为阳性,SFW图片是阴形。这些图片已事先通过编辑做了标记。由于数据本身属性的原因,我们不会公布这些数据或其它细节。

    1.8K90

    精炼师背后的故事

    精炼师背后的故事 ——大蛇智能师版正式发布 用AI来鉴别黄色图片,已经不是什么新鲜的事情。然而能够训练出一个可用的图像识别模型,其中所需要的细节知识还是值得学习的。...一、数据集的选取 在GitHub上有一个20万张图片的原始数据集,直接使用该数据集可以使我们节约很多时间。这份资源的贡献者是一位名叫Alexander Kim的数据科学家。...四、师产品的迭代实战 师产品被部署到了lab.aianaconda.com网站上,同时也在公众号“相约机器人”下面的“AI实验室”菜单中,以小程序的形式对外开放。...之后,便有了师alpha版的正式发布。 ? 4.1.3 模型能力 随机爬取135922张图片,其中正常图片52634张,卡通黄色图片11066张,真人黄色图片72222张。...4.2.1 仍然存在的样本盲区 师alpha版上线之后,与我们预期的一样,收到了好多测试模型的图片。其中不乏比较刁钻的样本,也是我们实实在在发现模型的问题。具体如下: ? ? ? ?

    3.1K20

    性感与色情有多远——你不知道的图片那些事儿

    图片服务市场容量巨大,作为移动互联网行业最为热门的创业领域,移动社交类App每天生产大量图片,并有无数色情图片混杂其中,所以高效准确地鉴别和剔除淫秽色情信息成为一项十分艰巨的任务。...此外,移动直播的大热也导致图片需求大增,尤其对于中小开发团队而言,直播平台很可能因为人力监管问题而在涉审核方面出现风险。...人工智能图片:机器学习与人工审核相结合 ? △ 又拍云智能工作流程 又拍云“智能”功能将自动对直播、视频、图片等内容进行鉴别。...目前在一张图片的完整过程是将它拿到中心鉴别,完毕后,再把结果发送至图片审核平台进行最终确认。...如何进行直播 通常情况下,视频直播服务利用视频截图、图像识别、语音审核、弹幕监控、关键词提取等方式识别色情内容。

    2.5K50

    智能云上手指南:如何使用腾讯云开放的图片能力?

    对于普通开发者而言,现在可以通过腾讯云开发者实验室0门槛体验优图鉴等能力。...SDK for PHP git clone https://github.com/tencentyun/image-php-sdk-v2.0 /data/image-php-sdk 3.使用万象优图的...PHP 代码: cd /data && php ci_detect_porn_php.php 执行成功后返回结果如下: 其中返回字段数据代表的意义如下: result: 供参考的识别结果,0正常,1图...,2疑似图片 confidence: 识别为图的置信度,范围0-100;是normal_score, hot_score, porn_score的综合评分 normal_score: 图片为正常图片的评分...AI虽然很高大上,通过这样一个小小的腾讯云上实验,开发者15分钟就可以体验到腾讯云提供的智能服务PHP SDK的便利。

    5.7K21

    周末,开放一个API

    前言 自从小黄图内测以来,不少小伙伴也想免费接入功能,独乐乐不如众乐乐,博主花了点时间,做了一个API分享出来,提供给大家免费使用,免费额!!!...代码案例 首先我们定义一个工具类: /** * 检工具类 * URL为小黄图专属地址 * 为了安全期间做了Token验证,望理解 */ public class YellowUtils {...FileSystemResource(new File(imagePath)); param.add("file", resource); param.add("token", "公号内回复[...HttpMethod.POST, httpEntity, String.class); return responseEntity.getBody(); } } 调用方式,小伙伴们只需要传入本地或者服务器图片绝对路径即可..., "porn": 0.816358209, "sexy": 0.182437778 } } 异常信息: 500:系统异常 401:Token错误 402:接口异常

    3K30

    UCloud 云服务内容 Java 版本实现

    前言 最近不少小伙伴反映上传小黄图偶尔性的异常,并且不能上传动态图片,很是苦恼!无她,API还没有这么智能,毕竟是自己训练的,不是那么专业!...为了更好的服务广大网友,撸主决定接入更加智能快速的服务。...能够精准识别图片、视频中的低俗内容,适用于各类用户的审核需求,帮助您在业务层面降低违规风险,同时应用算法服务,也大大减轻了人工审核的投入成本。...最主要的是,识别服务在2020年6月30日前,均免费试用。即使到期以后,小伙伴们也不用太担心,识别服务定价采取阶梯定价方式,每日2000张免费调用额度,剩余部分不累积。...接入新的服务,和自建一起使用双重保驾护航,同时小伙伴们可以自由的上传喜欢的动图了。

    1.8K10

    界的“Master”,其实是“他”

    他继续介绍到:“因为天御服务是引入人工智能,通过机器从海量的截图中筛选出可疑的图片,并将其推送到多屏监控系统,师们只要动动鼠标就可以对房间进行封停操作,原本上千万的图片需要上百的师才能搞定,...使用人工智能挑选几千张图片,3个师轮班即可处理过来,大大节约时间成本与人力成本。”...聊聊之外的趣事 “当开始优雅的之后,不仅工作量降低同时还有各种福利”,“师”继续乐意的介绍到:“比如多屏监控系统不仅展示可疑的色情图片,同时还有主播的各种排行榜,比如机器依据截图识别主播的性别...“ 当你们谈论伤身的时候 可能是你们的姿势不正确 当我们谈论的时候 我们谈论的是人工智能在图片识别的应用 by 天御师 所以其实你不是师,我也不是师,我们今天说到的真正师是天御...,它通过不断的对图片标注训练,已经能够高效识别各类涉图片,而且给它一张图片不仅可以识别是否涉,还可以发现里面的广告,里面的QQ/微信号分别是什么,还可以知男女、识颜值、断年龄。

    2K40

    原来师的KPI是这样的

    很遗憾,AI在一开始,就遇到了重重困难。 AI难在哪? 简单来说,AI的过程是这样的: 最开始,由算法工程师给AI模型喂入大量已标注性感/色情的图片。...△分类器完成决策面 完成这种“分类”,也即AI学习一个分类函数的过程。 到最后,通过这一分类函数,使AI模型达到输入一张图片,就能正确输出一个“正常/色情”标签的效果。...这种情况下,就算AI算法的正确率达到了99%,它也可能是不合格的师! 因为当小黄图的比例在1%以下时,即使AI在测试中将所有图片都判断为“正常”,正确率也能轻松突破99%。...那么这时,AI师哪怕完全不会,也能达成“高正确率”的目标—— 只需要全判断成“正常图片”就行! ? 这可比错夹了艺术作品严重多了。 如何让AI科学?...为了进一步减轻人类师的工作量,AI师还会“回看”自己打分低的那些图片:我到底为什么对它们拿不准? 然后,再对这些图片进行学习,进一步提升水平。

    1.5K50

    AI让“0”误差,从此涉师们不再被掏空

    本月,北京首次关停涉直播平台“夜魅社区”。此前,映客、花椒等在直播、陌陌等平台的数十位主播因涉被永久封禁,商业需求激增“师”职业,“”势在必行。...人工智能市场也是愈发竞争激烈,目前阿里绿网、腾讯万象优图、图普科技等团队已占据大量市场份额,那么人工智能究竟发展到了什么程度,又能为市场贡献多少光和热呢?...AI效果怎么样,真否能解放师? 识别色情、暴恐、时政敏感信息、小广告等违规图片和视频方面都要表现卓越,才能真正解放师。...智能的生成具体步骤如下图所示。 智能模型生成步骤 直播一般从哪些方面进行鉴定? 通常情况下,直播通过视频截图、图像识别、语音技审、弹幕监控、关键字抽取等能力智能识别色情内容。...事实上,无论是智能还是人工,其目的都是为了营造一个更健康的网络环境。相对于人工耗费大量的人力、财力,以及对员工身心的影响,依托大数据和云计算的智能显得更为“现代化”。

    2.8K20

    从人工智能模型,尝试TensorRT优化

    题图 摄于洞庭湖畔 随着互联网的快速发展,越来越多的图片和视频出现在网络,特别是UCG产品,激发人们上传图片和视频的热情,比如微信每天上传的图片就高达10亿多张。...每个人都可以上传,这就带来监管问题,如果没有内容审核,色情图片和视频就会泛滥。前不久,一向以开放著称的tumblr,就迫于压力,开始限制人们分享色情图片。更别提国内,内容审核是UCG绕不过去的坎。...还记得前几年出现的职业师这一职业么?传说百万年薪,每天看黄片看得想吐,但最近又很少有人提及这一职业,这个应监管而生的职业,因人工智能的出现又快速消亡。...,一种是采用PIL.image、skimage进行图片处理,也就是所谓的yahoo_image_loader,一种是采用tensorflow中的图片处理函数进行处理。...注意这个图片下载量非常大,需要注意别把硬盘撑满。

    1.9K40

    Python人工智能师的自我修养

    ❈ 前阵子在设计一个智能反识别的方案,查阅了已有Paper,结合自己的一点想法,现对不良图像的识别进行以下梳理: 方案1:皮肤区域检测法 与正常图片相比,不良图片的最大特征就是一张图像里包含了大量暴露的皮肤区域...,因此可初步通过皮肤区域检测法来快速完成对色情图片的识别。...4) 阈值参数选定: 选定阈值 t (通常设置为0.3~0.6),当 skin_{area} > t 时,可认为该图片为不良图片。...就像下面这样的(图片来自百度AI)。 ? 该方法主要思路如下: 1) 分别搜集“正常”、“性感”、“色情”三类大量带有标记的图像样本,3类样本分布需尽可能均衡。...方案5:MD5检测 可通过比对上传文件的MD5来检测不良图片或视频,该方法效率较高,适合于云盘内容检索等应用场景;但对于直播等UGC平台,则该方法不适用。

    1.7K80
    领券