PowerDesigner、Rational Rose、Visio三种建模工具比较

序号 比较角度 PowerDesigner Rational Rose Visio 1 开发公司 Sybase Rational Microsoft 2 开始的侧重点 数据库建模 UML建模 画图工具 3 应用系统规模 适合大中型系统开发 适合大中型系统开发 中小型系统的开发 4 编程语言 支持多种编程语言 支持多种编程语言 仅支持Microsoft提供的编程语言 5 支持双向工程代码生成及数据库生成 支持最好     6 支持UML   性能最好   7 数据库建模 最好     8 软件设计的人性化和易使用     最好 9 图形质量     最好 10 模型设计效率 最高     11 文档生成 最精细     12 跨平台 仅支持Windows系统 最好 仅支持Windows系统 13 性价比 最高       注:依据《PowerDesigner16 从入门到精通》整理   from:https://blog.csdn.net/u014020534/article/details/71242142

龙生   18 May 2018
View Details

微信分享到朋友圈

微信内置浏览器(WebView)中特有的javascript API(javascript Interface),随着微信官方的调整,部分API已经不能直接使用,比如类似直接分享到朋友圈WeixinJSBridge.invoke(shareTimeline,data,callback) 这样的功能,直接调用,会得到一个访问拒绝的response

此方法已过时,被微信禁用了。只能用微信官方的接口 1、前台脚本

2、后台代码

请引用微信官方封装好的dll Senparc.Weixin.dll Senparc.Weixin.MP.dll   from:https://blog.csdn.net/lybwwp/article/details/70172232

龙生   17 May 2018
View Details

开发者总结了 8 种最好的 AI 机器学习开源项目

随着 AI 技术快速发展,各种理论与实践层出不穷,它正在迅速改变我们生活中几乎每一个领域,从我们如何交流到用于交通的手段。作为开发者或者学习者,在开始构建机器学习应用程序之前,从众多开源项目中选择一项应该是一个艰巨的任务,日前,有网友在博客总结了 8 种最好的开源 AI 技术,为机器学习开发者指明道路。 1、Tensorflow TensorFlow 是谷歌为支持其研究和生产目标创建的项目,于 2015 年发布,它是一款开源机器学习框架,易于在各种平台上使用和部署。它是机器学习中维护得最好和广泛使用的框架之一,目前已被多家公司广泛使用,包括 Dropbox、eBay、Intel、Twitter 和 Uber。 TensorFlow 可用于 Python、C++、Haskell、Java、Go、Rust 以及 JavaScript,同时还有其它编程语言的第三方软件包可使用。该框架允许开发者使用流图开发神经网络等计算模型。 2、Keras  Keras 是一个开源机器学习库,最初于 2015 年发布,旨在简化深度学习模型的创建。它使用 Python 编写而成,可以部署在其它人工智能技术之上,如 TensorFlow、Microsoft Cognitive Toolkit(CNTK)和Theano。 Keras 以其对用户友好、模块化和易扩展性而闻名。它可以实现简单快速的原型设计,同时支持卷积网络和循环网络,并且能够在 CPU 和 GPU 上运行达到最佳状态。 3、Scikit-learn 最初于 2007 年发布的 Scikit-learn 是为机器学习开发的开源库,这个传统的框架是用 Python 编写的,它基于另外三个开源项目 Matplotlib、NumPy 和 SciPy 设计而成,专注于数据挖掘和数据分析,包含了几种机器学习模型,包括分类、回归、聚类和降维。 4、Microsoft Cognitive Toolkit 最初于 2016 年发布的 Microsoft Cognitive Toolkit ,之前称为 CNTK,它是一种 AI 解决方案,可让您将机器学习项目提升到一个新的水平。微软表示,开源框架能够“训练深度学习算法,以便像人脑一样工作”。 Microsoft Cognitive Toolkit 的一些重要功能包括高度优化的组件,能够处理来自 Python、C++ 或 BrainScript 的数据,提供高效的资源利用,轻松与 Microsoft Azure 集成以及与 NumPy 进行互操作。 5、Theano Theano 最初于 2007 年发布,它是一个开源的 Python 库,允许开发者轻松地构建各种机器学习模型。由于它是最早的 AI 库之一,被视为推动深度学习发展的行业标准。 Theano 的特征是可以简化定义、优化和评估数学表达式的过程,它能够将您的数据结构转换为与 NumPy、BLAS 等本地库以及本地代码集成的非常高效的代码。此外,它针对 GPU 进行了优化,并且具有广泛的代码测试功能。 […]

龙生   16 May 2018
View Details

吞吐量(TPS)、QPS、并发数、响应时间(RT)概念

开发的原因,需要对吞吐量(TPS)、QPS、并发数、响应时间(RT)几个概念做下了解,查自百度百科,记录如下: 1. 响应时间(RT) 响应时间是指系统对请求作出响应的时间。直观上看,这个指标与人对软件性能的主观感受是非常一致的,因为它完整地记录了整个计算机系统处理请求的时间。由于一个系统通常会提供许多功能,而不同功能的处理逻辑也千差万别,因而不同功能的响应时间也不尽相同,甚至同一功能在不同输入数据的情况下响应时间也不相同。所以,在讨论一个系统的响应时间时,人们通常是指该系统所有功能的平均时间或者所有功能的最大响应时间。当然,往往也需要对每个或每组功能讨论其平均响应时间和最大响应时间。 对于单机的没有并发操作的应用系统而言,人们普遍认为响应时间是一个合理且准确的性能指标。需要指出的是,响应时间的绝对值并不能直接反映软件的性能的高低,软件性能的高低实际上取决于用户对该响应时间的接受程度。对于一个游戏软件来说,响应时间小于100毫秒应该是不错的,响应时间在1秒左右可能属于勉强可以接受,如果响应时间达到3秒就完全难以接受了。而对于编译系统来说,完整编译一个较大规模软件的源代码可能需要几十分钟甚至更长时间,但这些响应时间对于用户来说都是可以接受的。 2. 吞吐量(Throughput) 吞吐量是指系统在单位时间内处理请求的数量。对于无并发的应用系统而言,吞吐量与响应时间成严格的反比关系,实际上此时吞吐量就是响应时间的倒数。前面已经说过,对于单用户的系统,响应时间(或者系统响应时间和应用延迟时间)可以很好地度量系统的性能,但对于并发系统,通常需要用吞吐量作为性能指标。 对于一个多用户的系统,如果只有一个用户使用时系统的平均响应时间是t,当有你n个用户使用时,每个用户看到的响应时间通常并不是n×t,而往往比n×t小很多(当然,在某些特殊情况下也可能比n×t大,甚至大很多)。这是因为处理每个请求需要用到很多资源,由于每个请求的处理过程中有许多不走难以并发执行,这导致在具体的一个时间点,所占资源往往并不多。也就是说在处理单个请求时,在每个时间点都可能有许多资源被闲置,当处理多个请求时,如果资源配置合理,每个用户看到的平均响应时间并不随用户数的增加而线性增加。实际上,不同系统的平均响应时间随用户数增加而增长的速度也不大相同,这也是采用吞吐量来度量并发系统的性能的主要原因。一般而言,吞吐量是一个比较通用的指标,两个具有不同用户数和用户使用模式的系统,如果其最大吞吐量基本一致,则可以判断两个系统的处理能力基本一致。 3. 并发用户数 并发用户数是指系统可以同时承载的正常使用系统功能的用户的数量。与吞吐量相比,并发用户数是一个更直观但也更笼统的性能指标。实际上,并发用户数是一个非常不准确的指标,因为用户不同的使用模式会导致不同用户在单位时间发出不同数量的请求。一网站系统为例,假设用户只有注册后才能使用,但注册用户并不是每时每刻都在使用该网站,因此具体一个时刻只有部分注册用户同时在线,在线用户就在浏览网站时会花很多时间阅读网站上的信息,因而具体一个时刻只有部分在线用户同时向系统发出请求。这样,对于网站系统我们会有三个关于用户数的统计数字:注册用户数、在线用户数和同时发请求用户数。由于注册用户可能长时间不登陆网站,使用注册用户数作为性能指标会造成很大的误差。而在线用户数和同事发请求用户数都可以作为性能指标。相比而言,以在线用户作为性能指标更直观些,而以同时发请求用户数作为性能指标更准确些。 4. QPS每秒查询率(Query Per Second) 每秒查询率QPS是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准,在因特网上,作为域名系统服务器的机器的性能经常用每秒查询率来衡量。对应fetches/sec,即每秒的响应请求数,也即是最大吞吐能力。 (看来是类似于TPS,只是应用于特定场景的吞吐量)   from:https://www.cnblogs.com/data2value/p/6220859.html

龙生   16 May 2018
View Details

php输出所有错误信息

方法一 修改php.ini

方法二 需要调试的php文件首行中加入

from:https://blog.csdn.net/whatday/article/details/50833934

龙生   15 May 2018
View Details

Laravel项目修改时区

最近做了一个支付宝支付的应用,现在还在开发过程中,今天早上起床之后先调试了一下项目,模拟支付了一笔(¥9999.00) 2333支付宝的沙箱环境啦,屌丝程序猿哪来这么多钱…… 打开Navicat查看数据库的时候,意外发现created_at字段的时间不大对啊,少了8小时,显示凌晨4点创建的支付订单。(没错,我睡到12点才起来的) 然后,首先意识到了PHP的时区配置不对,立即打开Wamp环境查看了一下,timezone是。。。Asia/Shanghai。额,这就很不科学了啊 接下来很自然就想到了Laravel的问题,打开Laravel的/app/config/app.php配置文件,发现里面果然有这么一行:

哦好吧,果然是这里的问题。 由于我喜欢配置文件集中管理,并且Laravel不是有一个.env配置文件么,那就好好利用一下吧。 观察配置文件里其他内容发现,有一个env()函数,猜测这个就是从.env中获取配置项value的函数了,不管怎么样,先试一下就对了,试试又不会怀孕嘛…… 试着对app.php做了如下改动

在.env文件中添加一行TIMEZONE=Asia/Shanghai之后,重新创建了一笔交易,用沙箱支付宝支付了一下,诶,可行 -_- 好了,就是这样,Laravel修改时区的教程到此结束,看我啰嗦了这么多,其实也就那两句。   from:https://www.cnblogs.com/wxjblog/p/6940195.html

龙生   13 May 2018
View Details

javaweb利用filter拦截未授权请求

项目上有个小需求,要限制访问者的IP,屏蔽未授权的请求。该场景使用过滤器来做再合适不过了。 SecurityFilter.java:

web.xml增加配置:

from:https://www.cnblogs.com/lichmama/p/7063587.html

龙生   11 May 2018
View Details

Java获取此次请求URL以及服务器根路径的方法

本文介绍了Java获取此次请求URL以及获取服务器根路径的方法,并且进行举例说明,感兴趣的朋友可以学习借鉴下文的内容。 一、 获取此次请求的URL 1 2 3 4 5 6 String requestUrl = request.getScheme() //当前链接使用的协议     +"://" + request.getServerName()//服务器地址     + ":" + request.getServerPort() //端口号     + request.getContextPath() //应用名称,如果应用名称为     + request.getServletPath() //请求的相对url     + "?" + request.getQueryString(); //请求参数 举例: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 http://127.0.0.1:8080/world/index.jsp?name=lilei&sex=1 <Context path="world" docBase="/home/webapps" debug="0" reloadable="true"/> request.getScheme() = "http"; request.getServerName() = "127.0.0.1"; request.getServerPort() = "8080"; request.getContextPath() = "world"; request.getServletPath() = "index.jsp"; request.getQueryString() = "name=lilei&sex=1"; http://127.0.0.1:8080/world/index.jsp?name=lilei&sex=1 <Context path="" docBase="/home/webapps" debug="0" reloadable="true"/> request.getScheme() = "http"; request.getServerName() = […]

龙生   11 May 2018
View Details

java 通过user-agent获取客户端

from:https://blog.csdn.net/mr_caoshuai/article/details/78284010

龙生   11 May 2018
View Details
1 191 192 193 432