nsfwjs鉴黄识别最⼩化案例
3个⽉前,也就是2⽉份左右吧,Github上出现⼀个开源项⽬:
Infinite Red, Inc.⼯作室宣布开源旗下基于tensorflow的tfjs的鉴黄⼩⼯具
据说是从15000张图⽚中进⾏机器学习⽽来的⽐较聪明的⼯具,值得⼀⽤
NSFW JS 全称为:NotSafe/SuitableForWork
给 NSFW JS ⼀张图⽚元素或画布,然后简单地调⽤ classify,可能会得到如下 5 个分类结果。
绘画(Drawing)——⽆害的艺术,或艺术绘画;
javascript初学推荐书籍变态(Hentai)——⾊情艺术,不适合⼤多数⼯作环境;
中⽴(Neutral)——⼀般,⽆害的内容;
⾊情(Porn)——不雅的内容和⾏为,通常涉及⽣殖器;
性感(Sexy)——不合时宜的挑衅内容。
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<meta http-equiv="X-UA-Compatible" content="ie=edge">
<title>Document</title>
<!-- Load TensorFlow.js. This is required -->
<script src="cdn.jsdelivr/npm/@tensorflow/tfjs@1.0.4"></script>
<!-- Load the NSFWJS library from AWS -->
<script src="s3.amazonaws/ir_public/nsfwjscdn/bundle.js"></script>
<!-- For testing: Load from local bundle `yarn scriptbundle` -->
<!-- <script src="../../dist/bundle.js"></script> -->
</head>
<body>
<input type="file" onchange="showImg()" accept="image/*"><br><br>
<img id="myImg" src="" width="150" alt="">
<button onclick="judge()">鉴别</button>
<script>
function judge() {
const nsfwjs = require('nsfwjs')
const img = ElementById('myImg')
/
/ Load the model.
nsfwjs.load().then(model => {
// Classify the image.
model.classify(img).then(predictions => {
console.log('Predictions', predictions)
})
})
}
function showImg() {
var demoImage = document.querySelector('img');
var file = document.querySelector('input[type=file]').files[0];
var reader = new FileReader();
demoImage.src = sult;
}
console.log(file)
}
</script>
</body>
</html>
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论