按类别查询搜索结果
关于关键词 的检测结果,共 556
专注的阿熊 | 2021-04-23 16:58:53 | 阅读(1940) | 评论(0)
BiLSTM+CRFimport torchimport torch.nn as nnfrom modelgraph.BILSTM import BiLSTMfrom itertools import zip_longestclass BiLSTM_CRF(nn.Module):    def __init__(self, vocab_size, emb_size, hidden_size, out_size):       ...【阅读全文】
专注的阿熊 | 2021-04-06 17:18:49 | 阅读(950) | 评论(0)
import numpy as npimport pandas as pdfrom sklearn.model_selection import train_test_splitfrom sklearn.utils import shuffledef getdata(fpath):    '''    定义getdata 获取训练集数据    '''   &nb...【阅读全文】
老男孩IT教育机构 | 2021-03-08 11:47:05 | 阅读(670) | 评论(0)
很多人应该都听说过网络爬虫,也知道Python是网络爬虫的首选编程语言,那么什么是网络爬虫?为什么写爬虫首选Python语言呢?我们一起来了解一下吧。【阅读全文】
老男孩IT教育机构 | 2021-02-24 13:51:19 | 阅读(820) | 评论(0)
在很多人的印象中,Python是无所不能的,那么Python可以开发网页吗?有什么好用的框架呢?我们一起来看看吧。【阅读全文】
老男孩IT教育机构 | 2021-02-01 15:48:42 | 阅读(710) | 评论(0)
学习Python的时候,想必很多人都听说过脚本和网页吧,也经常会有人问Python脚本和网页有什么区别?今天小编为大家整理了一下内容,我们一起来看看吧。【阅读全文】
老男孩IT教育机构 | 2021-01-25 14:00:01 | 阅读(1380) | 评论(0)
Python这门语言不用过多介绍想必大家都很清楚,Python不仅是一门简单易学的编程语言,同时适用于各大领域,无论数据分析、爬虫还是开发网站,Python几乎无所不能,那么Python如何开发网站?这两个框架你一定要学会。【阅读全文】
python66 | 2021-01-08 15:01:39 | 阅读(1390) | 评论(0)
## 一. 环境以及工具环境:win10,Python3.6工具:JetBrains PyCharm 2018.1.4## 二. 使用的第三方库:```import osimport smtplib  #发送邮件import timeimport threadingimport email复制代码```>本期小编推送2021初学者一定会用到的Python资料,含有小编自己呕心沥血整理的免费书籍/视频/在...【阅读全文】
python66 | 2021-01-08 13:56:00 | 阅读(1130) | 评论(0)
大家好,`并发编程` 进入第五篇。上次我们说,线程与线程之间要通过消息通信来控制程序的执行。讲完了消息通信,今天就来探讨下线程里的`信息隔离`是如何做到的。> **大家注意**:> `信息隔离`,这并不是官方命名的名词,也不是网上广为流传的名词。是我为了方便理解而自创的,大家知道就好咯。>本期小编推送2...【阅读全文】
python66 | 2021-01-08 13:51:02 | 阅读(1280) | 评论(0)
大家好,`并发编程` 进入第四篇。## 本文目录*   前言*   Event事件*   Condition*   Queue队列*   总结>本期小编推送2021初学者一定会用到的Python资料,含有小编自己呕心沥血整理的免费书籍/视频/在线文档和编辑器/源代码,关于`Python`的安装qun:8...【阅读全文】
python66 | 2021-01-06 14:14:43 | 阅读(1020) | 评论(0)
> 本文介绍下载python下载网络图片的方法,包括通过图片url直接下载、通过re/beautifulSoup解析html下载以及对动态网页的处理等。>本期小编推送2021初学者一定会用到的Python资料,含有小编自己呕心沥血整理的免费书籍/视频/在线文档和编辑器/源代码,关于`Python`的安装qun:850973621### 通过pic_url单个/批...【阅读全文】
python66 | 2021-01-04 15:54:10 | 阅读(1750) | 评论(0)
## 1、刷题遇到知识盲区今天继续在 [xue.cn](https://xue.cn/) 刷题,意外发现:整数和浮点数先后设为字典的键,会有奇怪的现象!题目如下:```What gets printed?confusion = {}confusion[1] = 1confusion['1'] = 2confusion[1.0] = 4sum = 0for k in confusion:    sum += confusion[k]...【阅读全文】
老男孩IT教育机构 | 2020-11-27 16:04:47 | 阅读(1090) | 评论(0)
提及网络爬虫或许很多人都不太了解,经常会有人问什么是网络爬虫?简单的来讲,网络爬虫就是爬取数据,在我们生活中十分常见,接下来我们了解一下关于爬虫的知识吧。【阅读全文】
老男孩IT教育机构 | 2020-11-27 15:53:05 | 阅读(1100) | 评论(0)
学习Python的时候,想必很多人都听说过脚本和网页吧,也经常会有人问Python脚本和网页有什么区别?今天为大家整理了一下内容,我们一起来看看吧。【阅读全文】
受到难受 | 2020-05-12 18:41:43 | 阅读(1490) | 评论(0)
如何将长地址URL转换为短地址URL,一个比较理想的解决方案就是使用发号器生成一个唯一的整数ID(这唯一ID与长网址一一对应),然后转换为62进制,作为短地址URL。发号器使用 Redis 的 incr 函数 incr('SID') 代码# python import redis class ShortenURL: _alphabet = '0123456789abcdefghijkmnopqr...【阅读全文】
蝴蝶飞啊飞 | 2020-04-16 11:48:04 | 阅读(70) | 评论(0)
我们随便打开一个音乐,发现网址上正好有"id=???"这样的格式,我们只要用正则表达式来提取ID,再在把ID填到上面的网址中就可以了,代码:import reimport urllib.requestimport tkinter.messagebox as box# 外汇百科设置下载函数def urldownload():url = lefturl.get() # 这里是我UI的输入框,不...【阅读全文】
【Python/Ruby】 神经络优化算法
wwm | 2020-04-12 20:24:03 | 阅读(371060) | 评论(0)
1、反向传播在所有参数上使用梯度下降,从而使模型在训练集合上损失函数尽量少常见函数  tf.train.GradientDescentOptimizer模型优化标准通过损失函数完成a、回归问题,输出为某个数值,采用MSE 均方差(mean squared error)b、分类问题    交叉商(cross entropy)c、自定义损失函数2、学...【阅读全文】
sina0022 | 2020-03-24 15:43:50 | 阅读(1590) | 评论(0)
下面小编就为大家带来一篇Python网络爬虫与信息提取(实例讲解)。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧课程体系结构:1、Requests框架:自动爬取HTML页面与自动网络请求提交2、robots.txt:网络爬虫排除标准3、BeautifulSoup框架:解析HTML页面4、Re框架:正则框架,...【阅读全文】
KEY017 | 2020-02-15 16:16:17 | 阅读(330) | 评论(0)
背景最近手里有个项目需要检测域名在微信里是否可以打开,如果被微信拦截,则需要进行下一步操作,所以需要判断域名的状态,但是微信官方并没有提供相关查询的方法,最后在网上找到了这个接口地址,分享给有需要的朋友。域名被封常见原因域名被封,确实有很多因素,简单列举下:1、购买的域名有黑历...【阅读全文】
老男孩Linux | 2019-12-24 19:05:17 | 阅读(1400) | 评论(0)
12月24日晚8点整,直播课了解如何用Python语言编写一个局域网聊天程序,请大家带好小板凳准时参加哟~直播概要(如何编写一个局域网聊天程序):1. 网络通信过程2. socket基础语法3. 局域网消息传递4. 发送消息给飞秋【阅读全文】
wwm | 2019-11-21 15:14:26 | 阅读(6240) | 评论(0)
#coding:utf-8  import urllibimport refrom bs4 import BeautifulSoupfrom distutils.filelist import findallpage = urllib.urlopen('http://XXXX')   contents = page.read()   soup = BeautifulSoup(contents,"html.parser")  tag =soup.find('div', class_='wrap')...【阅读全文】