首先GL算法如下:
x(i)=(y(i-1)*z(i-1)-x(i-1))*h^q1+(c1*x(i-1)+c2*x(i-2)+….+c60*x(i-60))
y(i)=(x(i-1)*z(i-1)-y(i-1)*y(i-1))*h^q2+(c1*y(i-1)+c2*y(i-2)+….+c60*y(i-60))
z(i)=(x(i-1)*y(i-1-b*z(i-1)))*h^q3+(c1*z(i-1)+c2*z(i-2)+….+c60*z(i-60))
c1~c60为参数,都小于1,且递减。
整个算法分为两个部分,一个是混沌系统的计算,一个是对之前数据的记忆,也就是一个点乘。
在实现时,采用状态机。用的是两段式状态机。
在实现时,将每一个状态该做什么分配好后,写好程序,仿真发现在仿真一会后结果全部为零。找了很长时间,接近两天的时间,考虑了可能由于用的乘法器太多,数据延迟增加,增加了每次状态持续的时钟周期,没用;打电话问同学,同学没遇到过。最后突然想起c1参数是“1111001111001111001110010”其他的参数第一个都为0,而本来c1是最大的;但这时由于c1最高位为1所以c1成了负数,才导致这样的结果。之后将c1改为“0111100111100111100111001”之后就解决问题了。
不过现在系统占用资源过高,要用一万多LUT,所以后面需要对系统进行优化。
版权声明:本文为wuzhouqingcy原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。