当前位置: 首页 > news >正文

网站模板 源码磁力岛

网站模板 源码,磁力岛,风景旅游网页设计,柏乡企业做网站算法基本流程如下: 1. 采集音乐库 2. 音乐指纹采集 3. 采用局部最大值作为特征点 峰值查找:signal.find_peaks(spectrum, prominence0, distance200) prominence:显著性阈值,峰值点左右延伸一条直线不超过比当前峰值高的点&…

算法基本流程如下: 

1. 采集音乐库

 2. 音乐指纹采集

3. 采用局部最大值作为特征点

峰值查找:signal.find_peaks(spectrum, prominence=0, distance=200)

  • prominence:显著性阈值,峰值点左右延伸一条直线不超过比当前峰值高的点,左右两段最小值中的较大值与峰值之间的差值作为显著性值;
  • distance:水平距离,峰值之间水平距离阈值。
a = np.array([2, 3, 1, 5, 4, 7, 2, 6, 2])
peak_idx, props = signal.find_peaks(a, distance=1, prominence=0, height=3)
peak_idx, props>>>
(array([1, 3, 5, 7], dtype=int64),{'peak_heights': array([3., 5., 7., 6.]),'prominences': array([1., 1., 5., 4.]),'left_bases': array([0, 2, 2, 6], dtype=int64),'right_bases': array([2, 4, 6, 8], dtype=int64)})符合条件的峰值点索引为[1,3,5,7],对应值为[3,5,7,6]
1. 峰值3的显著性:从峰值3向左右分别延长一条直线,直到最后一个不超过当前峰值的点,得到两段线段,左边线段最小值称为left_base,右边线段最小值称为right_base,3向左延伸到2(索引0),向右延伸到2(索引2),显著性值为3-max(a[0], a[2])=1;
2. 峰值5的显著性:5向左延伸到1(索引2),向右延伸到4(索引4),显著性值为5-max(a[2], a[4])=1;
3. 峰值7的显著性:7向左延伸到1(索引2),向右延伸到2(索引6),显著性值为7-max(a[2], a[6])=5;
2. 峰值6的显著性:6向左延伸到2(索引6),向右延伸到2(索引8),显著性值为6-max(a[6], a[8])=4;

 4. 将临近的特征点进行组合形成特征点对

5. 对每个特征点对进行hash编码

编码过程:将f1和f2进行10bit量化,其余bit用来存储时间偏移合集形成32bit的hash码

Hash = f1|f2<<10|diff_t<<20,存储信息(t1,Hash)

具体步骤如下:

  • 傅里叶变换得到频谱;
  • 每帧选取n_peaks个极大值点(基于显著性的峰值查找)—>(i, freq),所有特征点追加到列表;
  • 每个极值点在其附近邻域(如i:i+100)内生成一定数量特征对(附近邻域满足一定条件,如diff=other_time-cur_time,diff>1&&diff<10),将特征对编码成Hash值(32位),diff<<20 | other_time<<10 |cur_time,Hash值存入数据库Hash—>(ref_i, song_id);
  • 提取待检索音频的Hash值,查找其Hash值在数据库中哪些音乐中出现song_id—>(Hash, ref_i, test_i);
  • 统计同一song_id中相对时间偏移test_i-ref_i出现最多的次数;
  • 统计所有song_id中相对偏移最多次数最大的索引,即得到检索的song_id。

具体实现如下:

import numpy as np
import librosa
from scipy import signal
import pickle
import os
fix_rate = 16000 
win_length_seconds = 0.5
frequency_bits = 10
num_peaks = 15# 构造歌曲名与歌曲id之间的映射字典
def song_collect(base_path):index = 0dic_idx2song = {}for roots, dirs, files in os.walk(base_path):for file in files:if file.endswith(('.mp3', '.wav')):file_song = os.path.join(roots, file)dic_idx2song[index] = file_songindex += 1return dic_idx2song# 提取局部最大特征点
def collect_map(y, fs, win_length_seconds=0.5, num_peaks=15):win_length = int(win_length_seconds * fs)hop_length = int(win_length // 2)n_fft = int(2**np.ceil(np.log2(win_length)))S = librosa.stft(y, n_fft=n_fft, win_length=win_length, hop_length=hop_length)S = np.abs(S) # 获取频谱图D, T = np.shape(S)constellation_map = []  for i in range(T):spectrum = S[:, i]peaks_index, props = signal.find_peaks(spectrum, prominence=0, distance=200)# 根据显著性进行排序n_peaks= min(num_peaks, len(peaks_index))largest_peaks_index = np.argpartition(props['prominences'], -n_peaks)[-n_peaks:]for peak_index in peaks_index[largest_peaks_index]:frequency = fs / n_fft * peak_index# 保存局部最大值点的时-频信息constellation_map.append([i, frequency])return constellation_map# 进行Hash编码
def create_hash(constellation_map, fs, frequency_bits=10, song_id=None):upper_frequency = fs / 2hashes = {}for idx, (time, freq) in enumerate(constellation_map):for other_time, other_freq in constellation_map[idx: idx + 100]: # 从邻近的100个点中找点对diff = int(other_time - time)if diff <= 1 or diff > 10: # 在一定时间范围内找点对continuefreq_binned = int(freq / upper_frequency * (2 ** frequency_bits))other_freq_binned = int(other_freq / upper_frequency * (2 ** frequency_bits))hash = int(freq_binned) | (int(other_freq_binned) << 10) | (int(diff) << 20)hashes[hash] = (time, song_id)return hashes

特征提取:feature_collect.py

# 获取数据库中所有音乐
path_music = 'data'
current_path = os.getcwd()
path_songs = os.path.join(current_path, path_music)
dic_idx2song = song_collect(path_songs)# 对每条音乐进行特征提取
database = {}
for song_id in dic_idx2song.keys():file = dic_idx2song[song_id]print("collect info of file", file)# 读取音乐y, fs = librosa.load(file, sr=fix_rate) # 提取特征对constellation_map = collect_map(y, fs, win_length_seconds=win_length_seconds, num_peaks=num_peaks)# 获取hash值hashes = create_hash(constellation_map, fs, frequency_bits=frequency_bits, song_id=song_id)# 把hash信息填充入数据库for hash, time_index_pair in hashes.items():if hash not in database:database[hash] = []database[hash].append(time_index_pair)# 对数据进行保存
with open('database.pickle', 'wb') as db:pickle.dump(database, db, pickle.HIGHEST_PROTOCOL)
with open('song_index.pickle', 'wb') as songs:pickle.dump(dic_idx2song, songs, pickle.HIGHEST_PROTOCOL)
# 加载数据库
database = pickle.load(open('database.pickle', 'rb'))
dic_idx2song = pickle.load(open('song_index.pickle', 'rb'))
print(len(database))# 检索过程
def getscores(y, fs, database):# 对检索语音提取hashconstellation_map = collect_map(y, fs)hashes = create_hash(constellation_map, fs, frequency_bits=10, song_id=None)# 获取与数据库中每首歌的hash匹配matches_per_song = {}for hash, (sample_time, _) in hashes.items():if hash in database:maching_occurences = database[hash]for source_time, song_index in maching_occurences:if song_index not in matches_per_song:matches_per_song[song_index] = []matches_per_song[song_index].append((hash, sample_time, source_time))scores = {}# 对于匹配的hash,计算测试样本时间和数据库中样本时间的偏差for song_index, matches in matches_per_song.items():
#         scores[song_index] = len(matches)song_scores_by_offset = {}# 对相同的时间偏差进行累计for hash, sample_time, source_time in matches:delta = source_time - sample_timeif delta not in song_scores_by_offset:song_scores_by_offset[delta] = 0song_scores_by_offset[delta] += 1# 计算每条歌曲的最大累计偏差song_scores_by_offset= sorted(song_scores_by_offset.items(), key=lambda x: x[1], reverse=True)scores[song_index] = song_scores_by_offset[0]scores = sorted(scores.items(), key=lambda x:x[1][1], reverse=True)return scores

音乐检索:music_research.py

import threading
from playsound import playsounddef cycle(path):while 1:playsound(path)
def play(path, cyc=False):if cyc:cycle(path)else:playsound(path)path = 'test_music/record4.wav'
y, fs = librosa.load(path, sr=fix_rate)
# 播放待检索音频
music = threading.Thread(target=play, args=(path,))
music.start()# 检索打分
scores = getscores(y, fs, database)# 打印检索信息
for k, v in scores:file = dic_idx2song[k]name = os.path.split(file)[-1]# print("%s :%d"%(name, v))print("%s: %d: %d"%(name, v[0], v[1]))# 打印结果
if len(scores) > 0 and scores[0][1][1] > 50:print("检索结果为:", os.path.split(dic_idx2song[scores[0][0]])[-1])
else:print("没有搜索到该音乐")

麦克风录音识别音乐:

import pyaudio
import waveRATE = 48000 # 采样率
CHUNK = 1024 # 帧大小
record_seconds = 10 # 录音时长s
CHANNWLS = 2 # 通道数# 创建pyaudio流
audio = pyaudio.PyAudio()stream = audio.open(format=pyaudio.paInt16, # 使用量化位数16位channels=CHANNWLS, # 输入声道数目rate=RATE, # 采样率input=True, # 打开输入流frames_per_buffer=CHUNK) # 缓冲区大小frames = [] # 存放录制的数据
# 开始录音
print('录音中。。。')
for i in range(0, int(RATE / CHUNK * record_seconds)):# 从麦克风读取数据流data = stream.read(CHUNK)# 将数据追加到列表中frames.append(data)# 停止录音,关闭输入流
stream.stop_stream()
stream.close()
audio.terminate()# 将录音数据写入wav文件中
with wave.open('test_music/test.wav', 'wb') as wf:wf.setnchannels(CHANNWLS)wf.setsampwidth(audio.get_sample_size(pyaudio.paInt16))wf.setframerate(RATE)wf.writeframes(b''.join(frames))# 打开录音文件
path = 'test_music/test.wav'
y, fs = librosa.load(path, sr=fix_rate)# 线程播放待检索音频
# music = threading.Thread(target=play, args=(path,))
# music.start()# 音乐检索
print('检索中。。。')
scores = getscores(y, fix_rate, database)# 打印检索信息
# for k, v in scores:
#     file = dic_idx2song[k]
#     name = os.path.split(file)[-1]
#     # print("%s :%d"%(name, v))
#     print("%s: %d: %d"%(name, v[0], v[1]))# 打印结果
if len(scores) > 0 and scores[0][1][1] > 50:print("检索结果为:", os.path.split(dic_idx2song[scores[0][0]])[-1])
else:print("没有搜索到该音乐")

参考:音乐检索-Shazam算法原理_哔哩哔哩_bilibili

http://www.yidumall.com/news/37780.html

相关文章:

  • 做日结活的网站seo的作用
  • 番禺网站(建设信科网络)新公司如何做推广
  • 阿里网站建设百度优化教程
  • 网络工作室照片武汉seo优化分析
  • 建设银行纪检监察网站域名是什么 有什么用
  • 58同城枣庄网站建设哈尔滨优化推广公司
  • 门户网站建设服务收费宁波seo搜索优化费用
  • 寺院网站建设山东省住房和城乡建设厅
  • 免费建设一个网站静态网站开发
  • 合肥网站建设优化学习app开发工具哪个好
  • 模板网站如何快速交付给客户百度软件市场
  • 网站seo策略新闻今天的最新新闻
  • 北京国税局网站做票种核定时真正免费建站
  • 把自己做的动画传到哪个网站上seo网站推广收费
  • 高端网购平台抖音seo关键词排名技术
  • 广西钦州网站建设站长之家查询
  • 备案 个人网站建设方案书广州seo优化排名公司
  • 北京关键词优化服务windows优化大师官方
  • 如何在外管局网站做付汇延期企业网站推广策划
  • 沈阳网站模板建站培训学校机构
  • 网站建设合同2018百度站长平台论坛
  • 商业网站建设软件网上销售平台有哪些
  • 世界足球排名前100名自然搜索优化
  • 网站公司怎么做推广方案google国际版入口
  • 大庆门户网站新乡网站优化公司推荐
  • 导入表格做地图中热力网站推广普通话黑板报
  • 在线免费网站建设爱站网长尾关键词
  • wordpress字体选择网络优化需要哪些知识
  • 山西省网站建设制作百度一下你就知道官网百度
  • 电商网站设计流程图郑州百度推广公司电话