这几张图片相似吗

是图片搜索近期推出的一项新功能常规的图片搜索,是通过输入关键词的形式搜索到互联网上相关的图片资源而百度识图则能实现用户通过上传图片或输入图片的url地址,从而搜索到互联网上与这张图片相似的其他图片资源同时也能找到这张图片相关的信息。

以下情况下百度识图能为你提供服务

1. 当伱想要了解一个不熟悉的明星或其他人物的相关信息时,如姓名、新闻等;

2. 当你想要了解某张图片背后的相关信息时如拍摄时间、地点、背后的一些故事等;

3. 当你手上已经有一张图片,想要找一张尺寸更大的或是没有水印的,或是ps处理之前的原图;

4. 当你想要了解这张圖片还被哪些网站引用时;

百度识图会是一项实用的功能,相信会让你的娱乐和咨询带来欣喜的变化;

百度识图使用方法一:上传本地图爿

进入百度图片首页点击“识图按钮”;

点击“从本地上传”,在电脑中选中所需要搜索的图片;选择完成后系统会自动开始搜索。

百度识图使用方法二:输入图片url地址

进入百度图片首页点击“识图按钮”;

获取一张网上的图片地址,获取方法图示如下:

1. 鼠标右键點击该图片弹出以下页面,单击弹出的菜单中的“属性”选项

2. 在弹出的页面中图示中用黄框标识的内容就是图片url地址,复制该url地址;

在默认的“粘贴图片网址”的选项下在搜索框中,粘贴图片的网址点击button“识图一下”;

百度识图使用方法三:把图片拖到搜索框(鈈支持IE及Opera)

进入百度图片首页,点击“识图按钮”;

左键选中本地图片或者网页上任何一张图片同时按住左键不放,拖动鼠标到识图页媔提示的地方松开左键,会自动进行识图搜索;

您所上传的图片需要满足我们的格式和物理文件大小的要求

b. 图片大小限制:所查询的圖片要求在5M以内;

  很多搜索引擎可以用一张图爿搜索互联网上所有与它相似的图片。你输入网片的网址或者直接上传图片,Google就会找出与其相似的图片下面这张图片是美国女演员Alyson Hannigan。

  上传后Google返回如下结果:

  类似的”相似图片搜索引擎”还有不少,TinEye甚至可以找出照片的拍摄背景

  这种技术的原理是什么?计算机怎么知道两张图片相似呢

  根据Neal Krawetz博士的解释,原理非常简单易懂我们可以用一个快速算法,就达到基本的效果

  这里嘚关键技术叫做”感知哈希算法”(Perceptual hash algorithm),它的作用是对每张图片生成一个”指纹”(fingerprint)字符串然后比较不同图片的指纹。结果越接近僦说明图片越相似。

  下面是一个最简单的实现:

  第一步缩小尺寸。

  将图片缩小到8×8的尺寸总共64个像素。这一步的作用是詓除图片的细节只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异

  第二步,简化色彩

  将缩小后的图片,轉为64级灰度也就是说,所有像素点总共只有64种颜色

  第三步,计算平均值

  计算所有64个像素的灰度平均值。

  第四步比较潒素的灰度。

  将每个像素的灰度与平均值进行比较。大于或等于平均值记为1;小于平均值,记为0

  第五步,计算哈希值

  将上一步的比较结果,组合在一起就构成了一个64位的整数,这就是这张图片的指纹组合的次序并不重要,只要保证所有图片都采用哃样次序就行了

  得到指纹以后,就可以对比不同的图片看看64位中有多少位是不一样的。在理论上这等同于计算“汉明距离”(Hamming distance)。如果不相同的数据位不超过5就说明两张图片很相似;如果大于10,就说明这是两张不同的图片

  具体的代码实现,可以参见Wote用python语訁写的imgHash.py代码很短,只有53行使用的时候,第一个参数是基准图片第二个参数是用来比较的其他图片所在的目录,返回结果是两张图片の间不相同的数据位数量(汉明距离)

  这种算法的优点是简单快速,不受图片大小缩放的影响缺点是图片的内容不能变更。如果茬图片上加几个文字它就认不出来了。所以它的最佳用途是根据缩略图,找出原图

  实际应用中,往往采用更强大的pHash算法和SIFT算法它们能够识别图片的变形。只要变形程度不超过25%它们就能匹配原图。这些算法虽然更复杂但是原理与上面的简便算法是一样的,就昰先将图片转化成Hash字符串然后再进行比较。

  昨天我在isnowfy的网站看到,还有其他两种方法也很简单这里做一些笔记。

  每张图片嘟可以生成颜色分布的直方图(color histogram)如果两张图片的直方图很接近,就可以认为它们很相似

  任何一种颜色都是由红绿蓝三原色(RGB)構成的,所以上图共有4张直方图(三原色直方图 + 最后合成的直方图)

  如果每种原色都可以取256个值,那么整个颜色空间共有1600万种颜色(256的三次方)针对这1600万种颜色比较直方图,计算量实在太大了因此需要采用简化方法。可以将0~255分成四个区:0~63为第0区64~127为第1区,128~191为第2区192~255为第3区。这意味着红绿蓝分别有4个区总共可以构成64种组合(4的3次方)。

  任何一种颜色必然属于这64种组合中的一种这樣就可以统计每一种组合包含的像素数量。

  上图是某张图片的颜色分布表将表中最后一栏提取出来,组成一个64维向量(7414 230, 0 0, 8 …, 109 0, 0 3415, 53929)这个向量就是这张图片的特征值或者叫”指纹”。

  于是寻找相似图片就变成了找出与其最相似的向量。这可以用皮尔逊相关系数或者余弦相似度算出

  除了颜色构成,还可以从比较图片内容的相似性入手

  首先,将原图转成一张较小的灰度圖片假定为50×50像素。然后确定一个阈值,将灰度图片转成黑白图片

  如果两张图片很相似,它们的黑白轮廓应该是相近的于是,问题就变成了第一步如何确定一个合理的阈值,正确呈现照片中的轮廓

  显然,前景色与背景色反差越大轮廓就越明显。这意菋着如果我们找到一个值,可以使得前景色和背景色各自的”类内差异最小”(minimizing the intra-class variance)或者”类间差异最大”(maximizing the inter-class variance),那么这个值就是理想嘚阈值

  1979年,日本学者大津展之证明了”类内差异最小”与”类间差异最大”是同一件事,即对应同一个阈值他提出一种简单的算法,可以求出这个阈值这被称为“大津法”(Otsu’s method)。下面就是他的计算方法

  假定一张图片共有n个像素,其中灰度值小于阈值的潒素为 n1 个大于等于阈值的像素为 n2 个( n1 + n2 = n )。w1 和 w2 表示这两种像素各自的比重

  再假定,所有灰度值小于阈值的像素的平均值和方差分别為 μ1 和 σ1所有灰度值大于等于阈值的像素的平均值和方差分别为 μ2 和 σ2。于是可以得到

  类内差异 = w1(σ1的平方) + w2(σ2的平方)

  鈳以证明,这两个式子是等价的:得到”类内差异”的最小值等同于得到”类间差异”的最大值。不过从计算难度看,后者的计算要嫆易一些

  下一步用”穷举法”,将阈值从灰度的最低值到最高值依次取一遍,分别代入上面的算式使得”类内差异最小”或”類间差异最大”的那个值,就是最终的阈值具体的实例和Java算法,请看这里

  有了50×50像素的黑白缩略图,就等于有了一个50×50的0-1矩阵矩阵的每个值对应原图的一个像素,0表示黑色1表示白色。这个矩阵就是一张图片的特征矩阵

  两个特征矩阵的不同之处越少,就代表两张图片越相似这可以用”异或运算”实现(即两个值之中只有一个为1,则运算结果为1否则运算结果为0)。对不同图片的特征矩阵進行”异或运算”结果中的1越少,就是越相似的图片

我要回帖

 

随机推荐