我们演示一段自动打开微信公众号草稿箱的代码
需要注意的是,谷歌浏览器内核版本需要和电脑中的谷歌浏览器版本一致
如果需要登陆的话,需要将cookie保存到本地,这样就不需要每次启动登录了。
Roboot roboot = new RobootTest(SeleniumDriver.Chrome, "/Users/heweinan/Documents/software/webdriver/chromedriver");
roboot.open("https://mp.weixin.qq.com/")
.check("login?");
.storeCookie();
StringBuffer page = new StringBuffer();
Roboot roboot = new RobootTest(SeleniumDriver.Chrome, "/Users/heweinan/Documents/software/webdriver/chromedriver");
roboot.open("https://mp.weixin.qq.com/")
.installCookie()
.refresh()
.className("weui-desktop-menu__name").textFilter("草稿箱").first().clickScript()
.css("div.preview_media_add_panel ul li.create_article_item a").first().attr("href", page::append).clickScript()
.robootContext()
.switchHandler(1)
.id("js_editor_insertlink").first().clickScript()
.className("weui-desktop-btn").first().clickScript()
.className("weui-desktop-form__input").choose(1).send(bizName).send(Keys.ENTER)
.css("li.inner_link_account_item div.weui-desktop-vm_primary ").first().clickScript();
可以看到,通过Spider Terminator的API我们不仅很方便的实现了自动化逻辑的编写。并且操作步骤也清晰明了易于维护。

最近弄个数据获取的小功能,对于如何从网页来获取数据也算是有了一个初步的了解,一路也是跌跌撞撞,看过的几个方案做个小总结吧
我们浏览网页的本质其实都是获取别人的后台数据展示,当我们需要大量的数据的时候,总不能去一个个点击页面抄数据下来 吧,那么我们就可以通过代码来实现,对于绝大部分网页,页面的结构都是具有规律性的,比如淘宝网上的商品详情页这种,肯定不可能一个商品一个界面是吧,任何涉及到详情页的界面肯定都是有规律的,那么我们就可以使用代码来解析页面获取数据. (搜索引擎的爬虫就不知道了哈)